• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

Netzwerkkarten bündeln

neuland

Newbie
Hallo möchten einen Server aufbauen der zwei Netzwerkkarten onboard hat (Intel 82563 Gigabyte).

Es soll Opensuse 10.2 eingesetzt werden.
Leider finde ich überhaupt keinen ansatz wie man dies konfiguriert. In Yast habe ich auf jedenfall mal keine möglichkeit gesehen.
 
OP
N

neuland

Newbie
IP Netz, 192.168.0.0 - 255.255.255.0 an einem Gigabit Switch oder was meinst du genau?

Es soll eigendlich die Bandbreite der Netzwerkkarte von 1 GB auf 2 GB erhöht werden.

Habe bisher folgendes gefunden:

NIC Bonding unter Linux
Für den Einsatz unter Linux gibt es einen speziellen Bonding-Treiber. Dieser Treiber ermöglicht es, mehrere physische Interface (eth0, eth1, usw.) zu einem logischen Interface "bond0" zusammenzufassen. Der IP-Stack nutzt dann nur noch das logische Interface. Der Bonding-Treiber überprüft die physischen Schnittstellen über den Medienstatus am Media Independent Interface (MII). Zusätzlich kann eine Art Heartbeat über ARP realisiert werden. Dadurch können auch Probleme erkannt werden, die nicht zu einem direkten Ausfall einer Ethernetschnittstelle führen.

Der Bonding-Treiber kennt die Betriebsarten Active Backup, Round Robin, XOR, Broadcast, IEEE 802.3ad, Adaptive transmit load balancing (TLB) und Adaptive load balancing (ALB).

Steckbrief Linux Bonding Verbindung Switch:Server Anzahl Ports Ausfallsicherheit Lastverteilung
1:1
n:1 unbegrenzt ja Round Robin, MAC, lastabhängig


Linux Bonding mit Active Backup
Beim Active Backup ist immer nur ein Adapter aktiv. Die anderen Netzwerkkarten sind im Standby. Die Netzwerkkarten können mit verschiedenen Switchen verbunden werden. Dieser Modus bietet lediglich Ausfallsicherheit.

Linux Bonding mit Round Robin (RR)
Im Modus Round Robin werden die Frames der Reihe nach auf die aktiven Schnittstellen (Slaves) verteilt. Round Robin bietet gute Lastverteilung und Redundanz.

Linux Bonding mit XOR
In der Betriebsart XOR wird zur Lastverteilung eine XOR-Verknüpfung der MAC-Adressen von Sender und Empfänger vorgenommen. Die Verbindung zu einem Ziel (Client, Router) wird dadurch immer über einen Adapter hergestellt.

Linux Bonding mit Broadcast
Der Titel deutet es schon an: Alle Frames werden über alle aktiven Adapter gesendet. Die Broadcast-Option bietet lediglich Ausfallsicherheit.

Linux Bonding mit IEEE 802.3ad
IEEE 802.3ad Dynamic link aggregation erfordert einen Switch der dieses Feature unterstützt. Alle Netzwerkadapter müssen auf die gleichen Speed- und Duplexsetting gestellt werden. 802.3ad realisiert Lastverteilung und Redundanz.

Linux Bonding mit Adaptive transmit load balancing (TLB)
TLB erfordert keine spezielle Unterstützung durch den Switch. Linux verteilt die Frames beim Senden in Abhängigkeit von der aktuellen Last auf den Links. Empfangen werden Daten nur auf jeweils einem Adapter. Beim Ausfall einer Karte übernimmt die nächste deren MAC-Adresse und empfängt die Daten.

Linux Bonding mit Adaptive load balancing (ALB)
ALB realisiert zusätzlich zum TLB noch eine Lastverteilung für den Empfang von IPV4-Daten. Dazu werden die ARP-Replies des Linux-Servers modifiziert und den Clients so verschiedene MAC-Adressen übermittelt. ALB benötigt keine Unterstützung vom Switch.

Die Anzahl der beteiligten Netzwerkkarten an einem Bonding Interface wird durch den Bonding Treiber nicht begrenzt. Bonding arbeitet auch mit Gigabit Ethernet (GbE) zusammen. Wie man sieht, bietet der Bonding Treiber jede Menge Potential für eigene Experimente. Eine gute Dokumentation zum Thema Bonding unter Linux liefert die Datei

/usr/src/linux/Documentation/networking/bonding.txt

aus den Kernelquellen.

Leider habe ich ein Problem, ich kann kein Englisch.
 
Letztendlich gibt es noch das einfache Bonding mithilfe einer Bridge. Ich glaube aber, dass das eher Active Backup entspricht.
 

Fat_Fox

Hacker
das macht doch aber bei netzwerkkarten die normal über pci angeschlossen sind keinen wirklichen sinn den schon allein eine gigabitnetzwerkkarte ist in der lage so einen pci bus fast vollständig mit daten zu füttern (119 MB/s sind das maximale was die karte kann und 133 MB/s sind das was der PCI lierfern könnte ) oder irre ich ?
 
Oben