Allgemeine AS-RZ Diskusion

[Eher OT, ggf. bitte in eigenen Thread verlagern …]

Sprich: es NATet v4 und routet v6, aber ohne den FFRL-/FFNW-Tunnel dazwischen. Auf Applikationsebene also eher kein Unterschied, daher wundere ich mich über »respondd gestoppt. Das macht da manchmal Randale«?

Hmm, ist hulk nun eine VM auf FFI-Blech/einem FFI-Hypervisor, oder das FFI-Blech selbst? Die 10G-Karten stecken ja im Blech … Und was sind die »anderen 10G Netzwerkkarten«? Wir haben mit NetXen und QLogic – was HP halt so verbaute – bislang keine negativen Erfahrungen gemacht?

Das machen wir ›nebenan‹, bei FFGT & FFLIP, ja schon länger — und wären an einem Erfahrungsaustausch nicht uninteressiert :wink:

Ab und an rastet das respondd mal aus und blockiert die CPU. Bin noch nicht dazu gekommen mir das im Detail an zu sehen daher kann ich dazu noch nix weiter sagen.

hulk ist aktuell eine VM auf dem FFI Blech goldelse. Dieses Blech hat halt im Gegensatz zu den Hetzner Kisten die wir sonst so haben und mit 1G angebunden sind 10G NICs von Intel und Mellanox bei denen wir uns erhofft haben das sie weit aus besser mit den kleinen Layer 2 Paketen umgehen können als die Billo-Realtek-NICs in den Hetzner Kisten. Was wohl auch zu zu treffen scheint. Die VM Soll sobald das Ansible fertig ist weg und das Gateway dann nativ auf dem Blech laufen. Da auf dem Blech aber auch noch andere VMs laufen wird das wohl als letztes erst umgebaut.

Kann man bestimmt mal organisieren… Ihr sitzt ja auch bei in-Berlin bzw. bei Stefan im RZ am CIX wenn ich das richtig im Kopf hab…

Interessante Variante; würde natürlich den ganzen IP-Pfad entschlacken, statt aus dem Interface durch den Kernel in die Bridge in das virtuelle VirtIO-Interface in den virtualisierten Kernel in das virtualisierte Tunnel-Interface in das batman-Interface … Da würden mich Erfahrungen bzw. Euer Zeithorizont dafür interessieren. Wir haben das seinerzeit für fastd gemacht (naja, fast; fastds liefen auf dem Blech und dann ging’s per Bridge in die VMs in den jeweiligen Flattermann).

Yepp, wobei wir perspektivisch überlegen, die beiden ASe zusammenzulegen, u. a. wegen der Unspaßigkeit, effektiv zwei ASe parallel zu betreiben (double the trouble auf allen Ebenen ;)) sowie dann möglichem dediziertem v4-Adressraum je Standort (der RETN-Tunnel zw. den CIX-Standorten FRA und BER ist ja auch »nur« 5 GBit/sec breit, IIRC).

Genau darum geht’s um von dem Bridge Konstrukt mit der VM weg zu kommen. Ich glaub das mit dem fastd auf dem Blech hattest du schon mal irgendwo erzählt…

Das ist uns leider nicht vergönnt da wir aktuell nur ein /24 haben. Da sind wir auf den CIX angewiesen für unsere Inter-RZ Kommunikation.

Das stimmt. Da ist aber wohl perspektivisch auch noch mehr machbar bzw so voll ist es da gefühlt auch nicht… Wir haben da damals beim Umzug ins Werkhaus Optiken beigesteuert die theoretisch 2x10G können… Aber wohl nur für die Strecke Werkhaus <> Interxion und das Nadelöhr ist wohl Interxion <> Alboin Kontor.

Das ist ja einer der Gründe: das Gütersloher 193er und das Lipper 85er ergibt zwei /24 :wink: Werkhaus? Sagt mir nix, ist auch nicht auf gelistet; meintest Du Interwerk[1]? IIRC ist der Aufbau in etwa so: W23, 10G-CIX-Switch - phys. oder virt. 10G - W19 - RETN-5G-Tunnel - A36 - 10G redundant - L105; FFGT & FFLIP zumindest stehen in A36 und W23, Ihr AFAIK ebenfalls. DECIX hängt AFAIK an W19, BCIX an A36. Und damit ist der Engpaß erst einmal zw. Interxion (W19) und Alboinkontor (A36), zumal Telekom und Vodafone nur in A36 peeren/Transit anbieten. (Mit Telefónica (o2) peert FFGT an DECIX FRA, DECIX HAM und BCIX, bekommt deren Traffic also möglichst über den lokalen IX (so eindeutiger Prefix vorhanden) und wird ihn insbesondere da auch wieder los.) Ciao, -kai [1]

Ne. Stefan / vserver.site ist ja mit dem gesamten Server Geraffel wegen Temperatur Problemen im Interwerk letztes Jahr umgezogen ins Werkhaus. Keine Ahnung ob das Wirklich so heißt wurde hier aber immer so genannt… ist wohl ein Datacenter von MK Netzdienste. Siehe Liegenschaften in der PeeringDB

Dabei ist auch der CIX-Switch vom Interwerk rüber gewandert. Soweit ich weis gibt’s im Interwerk nix mehr vom CIX.

Ah. Nee, der Umzug war initial ins „Werkhaus“ geplant (und kommuniziert), stimmt. Quasi sehr kurzfristig wurde es dann aber das MK-Rechenzentrum. (Ich war vor Ort, da ich den Umzug gleich für einen Servertausch bei FFGT genutzt habe — neues Blech mit hinnehmen, altes ausbauen, Systemplatten aus altem ins neue Blech, neues einbauen und verkabeln. Server zu verschicken ist nicht ganz günstig, vom Defekt-/Totalverlustrisiko beim Pakettransport ganz zu schweigen.)

Stimmt; der einzige Grund für den Community-IX-Switch bei Interwerk waren die – über Stefan/vserver.site gehosteten – FF-Communities. Und die sind samt und sonders ja mit weggezogen :wink: