AVM Repeater 300E mit externen Antennen

Ich hatte am Wochenende mal wieder lust an etwas herumzuschrauben, dabei ist mir mein AVM 300E aufgefallen, dass der nur ein bzw. zwei Balken Signalstärke anzeigt. Also aufgeschraubt und nachgesehen, was da noch so geht uns siehe da, zwei IPX Pigtail Anschlüsse. Da ich von meinem TL-WR1043ND, bei dem ich dem ich drei TL-ANT2408CL angeschraubt habe, noch die drei Serienantennen übrig hatte habe ich mal nach „IPX Pigtail Adapter auf RP-SMA“ gesucht. Im Prinzip muss man mit einer Zange nur zwei Schlitze in das Gehäuse klipsen und schon kann man die RP-SMA Anschlüsse befestigen. Dannach nur noch die Antennen dranschrauben und schon geht es besser, alternativ auch gern eine TL-ANT2424B als Uplink.
Mit den „neuen“ Antennen komme ich nun auf mindestens drei Balken.

nach 10GBE geht doch noch was… ODER???

Dieses mal gibt es etwas aus dem Bereich (Achtung Buzzword Bingo Bullshit!!!) „high“ Performance Networking.
Ich hatte im Rahmen einer Teststellung die Gelegenheit zwei Mellanox ConnectX-4LX 40GbE (CX4131A bzw. MCX4131A-BCAT) mit einem 3m QSFP+ (MC2210128-003) testen zu können.
Sofort Karten auspacken, in meine Testmaschine werfen und nix geht. ESXi 5.5 zeigt mir zwar die Karte an, aber nicht als Netzwerkkarte. Zweites Image mit ESXi 6.0 gestarten und… das gleiche Bild.
Ok dann halt im Passthrough Modus. Dabei zeigen sich folgende Verhaltensweisen:
Windows Server 2008 R2
Ähm… nöööö, da ging garnichts, zumindestens nicht automatisch. Nachdem ich den Treiber gefunden hatte, ging es gut. Doch wozu brauch ich 40G unter Windows in einer VM? ATTO Benchmarks auf SAN abfeuern, welches bereits wegen des Dell H310/M1015 bereits bei 600MBit/s aufgibt. Nee danke.
VMWare ESXi
Da ich kein VCenter habe und keine Lust darauf habe ein custom Image nur für diesen Test zu bauen, kann ich außer der Einleitung nichts dazu sagen.
*Ubuntu 16.04.2/Debian 8
gestartet, erkannt und funktionierte
Daher habe ich auch die weiteren Tests mit 16.04.2 gemacht.
Treiber
Lagen nicht bei, hab ich nach etwas suchen dann doch direkt beim Hersteller gefunden:
Link zum Mellanox Treiber
Benchmarks
Die waren mit einigen Hindernissen verbunden. Zuerst hatte ich als B-Ende einen Core2Quad Q8200 genutzt.
Der kam mit etwas Optimierung nur auf 17,9 GBit/s, zudem waren alle vier Kerne auf anschlag 100%.

Als nächstes habe ich dann den i3-2100 zum Testen herangezogen, welcher auch direkt ein besseres Bild zeigte (19,4GBit/s):

Diesmal war es aber iperf3, welches sich als Flaschenhals zeigte. iperf brachte da ein doch besseres Ergebnis (25,5-26,0GBit/s):

Ich merke jedoch, dass solche Hardware eindeutig für PCI Express 3.0 ausgelegt ist und ich einfach an die Limits von PCIe 2.0/2.1 stoße. Bei 10GBE ist das nämlich kein Problem.
Fazit
Mit einem „Marktpreis“ von ca. 500€ – nur Karte – ohne Kabel oder QSFP+ Modul – könnte 40GBE jetzt auch bei einem breiteren Publikum ankommen. Mir zeigte es vor allem, dass nach Dualport 10GBE nur 40GBE bzw. dual 40GBE kommen kann, PCIe 3.0 oder besser vorrausgesetzt.
Im Zusammenhang mit einem Mellanox 40GBE 12 Port Switch (MSX1012B-2BFS) geht da bereits einiges, vor allem wenn man nur noch zwei Ports braucht, um einen Nutanix/Supermicro Server mit vier Nodes á zweimal 10GBE SFP+ mit einem Kabel anzuschließen. Zudem können zwei dieser Switches auf einer Höheneinheit montiert werden.
Bei sowas kann ich mir gut vorstellen diese beiden untereinander zu verbinden und mit dem Management Switch anzubinden, dass ganze dann per 40GBE Redundant auf LWL (SMF) in Richtung Core Switch zu schicken. (Außer man macht es so wie ich aktuell und geht mit zwei QSFP+ auf SFP+ auf RJ-45 um den Management Switch anzubinden 😛 )
Schöne neue Welt 😀

Review: Asus P9D WS / Das Testsystem für ca.1000€

Anforderung
Es sollte eine Intelplattform Quadcore mit 32GB RAM ECC, PCIe Splitter, Workstation/Server Hardware, Hardwarebeschleunigung für VT-x & VT-d

Zielsetzung
Virtualisierungsplattform mit guter * PCIe Anbindung und Hardwarepassthrough
* PCIe x16 von der CPU soll gesplittet werden und nicht nur vom Chipsatz kommen

Teileliste
Asus P9D WS – ca. 220€
– Workstation Mainboard
– ECC Support
– Intel C226 Chipsatz
– Splittet den PCIe 3.0 x16 von der CPU nach Bedarf auf x16 oder x8/x8 oder x8/x4/x4
– Chipsatz liefert 6xSATA3/PCIe 2.0 x4/PCIe 2.0 x1/2x PCI/2x Intel I210 LAN onBoard
Kingston KVR16E11K4/32 32GB DDR3 ECC 1600MHz CL11 – ca. 235€
– 32GB ECC RAM der auf der HCL von Kingston steht
Intel Xeon E3-1231v3 4×3,4GHz – ca. 280€
– lieber nicht, besser E3-1245v3, weil dieser eine onBoard GPU hat
IBM M1015 – 120€
– IT-Mode für ZFS
Nvidia FX 5800 PCI – 20€
– weil CPU ohne onBoard GPU
bequiet! Pore Power L7-530W – ca. 60€
Fractal Design ARC MIDI R2 – 80€

Anwendungsfall
Bei mir läuft ESXi 5.5 drauf, dabei wird der IBM M1015 direkt an die FreeNAS VM durchgereicht und bekommt so die Festplatten mit 12GB RAM. Speedlimit liegt bei ca. 600MB/s, eben der Flaschenhals des Controllers mit SAS2/SATA3. Diese stellt einen FTP Server und ein iSCSI Target bereit. Dieses wird auf der ESXi als entsprechendes Blockdevice eingebunden.
Darauf kommt eine Windows VM die Grafikkarte (ATI HD 5770) durchgereicht und der Store liegt auf dem iSCSI Target.
Dazu kommt noch eine der Intel X520 10GBE für den guten Datendurchsatz, die auch iSCSI an einen weiteren Host weiterreichen kann.
Außerdem eine ATI HD 5770, die bald mal gegen was neueres gewechselt werden muss, zudem verdeckt zwar einen PCI Slot, aber egal.

Was kommen könnte
Neuere Grafikkarte, da die ATI HD 5770 etwas in die Jahre gekommen ist. Wichtig ist nur, dass die nur genau zwei Slots belegen darf, da sonst kein Platz mehr für die 10GBE Karte ist.
NVMe Flash Cache/Storage über den Chipsatz. Dazu noch ein neuer Storagecontroler, z.B. Broadcom 9300-8i um mehr Bandbreite zu dem Festplatten zu haben. Für einen 9300-16i müsste ein neues Case her oder ein 4i um mit vier SATA SSDs zu arbeiten.
Mehr USB/LAN kann übrigens auch nicht schaden.

Benchmark Ergebnisse

Typ Model CPU cb CPU cb Single MP Ratio Grafikkarte OpenGL FPS
Intel NUC5i5RYH Intel i5-5250U 2x@1,6GHz 259 108 2,39 Intel HD 6000 36,74
Intel i3-2100 2x@3,1GHz 267 105 2,55 ATI HD 6670 37,76
Lenovo W520 Intel i7-2720QM 4x@2,2GHz 427 102 4,21 Nvidia Quadro 1000M 28,91
Lenovo T440p Intel i7-4710MQ 4x@2,5GHz 522 137 3,79 Nvidia GeForce GT 730M 52,34
dieses System Intel E3-1231 v3 4x@3,4GHz 727 151 4,83 ATI HD 5770 77,81
HP Workstation Intel i7-4770 4x@3,4GHz 729 148 4,94 Nvidia Quadro K600 33,02

Fazit
Als VM Host für zuhause ist dieses System sehr gut geeignet, jedoch merke ich, dass mir die Anzahl der von der CPU kommenden PCIe Lanes nicht ausreichen wird. Daher denke ich aktuell über eine CPU mit 40 Lanes auf Basis des Sockel 2011-3 nach. Dabei sind zwar die Mainboards größer, jedoch wird mein Bedarf gewiss weiter steigen.

endlich 10GBE? ja!

Da bin ich mal wieder auf ebay unterwegs und suche nach“X520-DA1/DA2“, …ups
300€ & 2 Tage später liegt ein Set aus zwei Intel X520-DA1 mit 3m SFP+ Kabel und zwei Intel 10GBE SFPs Multimode (FTLX8571D3BCV-IT) im Briefkasten. Wenn ich die Dinger schon mal habe, kann ich auch damit spielen gehen.
Also eingebaut, Linux gestartet, iperf rausgeholt und losgetestet.
Ergebnis 9,42GBit/s…ok, damit kann ich arbeiten 😀

img_0059-cut-kopie

Review: Synology DS1815+

Heute mal was mit Storage und zwar eine Synology 1815+, Quad Core Atom C2538 2,4 GHz, 2GB RAM, 4x GBE, 8 Bay und erweiterbar mit 2x 5 Bay. Technisch sehr ähnlich mit der DS415+/DS916+ (4-Bay, 2xGBE) und der DS2415+ (12-Bay + 12er Erweiterung).
Angefangen hat es bei mir mit 4x 1TB & 2x 3TB Seagate & 4TB WD Red, also ca. 12TB nutzbar. Diese habe ich nach und nach im Betrieb gegen größere getauscht. Vor allem die 1TB Platten wurden durch 4TB WD Red ersetzt, somit ca. 18TB.
Jedoch hatte ich nah und nach weiten Platten dazu gesteckt, wodurch die Performance eher durchschnittlich war. Zudem habe ich die Platten immer bei einem eher hohen Füllstand gearbeitet. Somit bin ich auf eine Schreibrate von ca. 180 MB/s gekommen. Wenn man gleich alle Platten ausrüstet und immer „gleichzeitig“ auf größere migriert, sollte das nicht vorkommen. Zudem vermute ich, dass es auch damit zusammen hängt, dass ich 5900 RPM WD Red mit 7200 RPM Seagate gemischt habe. Aber da er Platz bereits wieder voll ist, habe ich mich vor kurzem entschieden, das Array mit 6TB WD Red neu aufzubauen. Jedoch nicht mit SHR sondern mit auf Dauer mit RAID 6. Jedoch habe ich letzten gesehen, dass Seagate endlich die 10TB IronWolf veröffentlicht hat. Die großen Platten gibt es zwar mit entsprechenden Kapazitäten (8/10TB) bereits schon länger für Enterprise Kunden, jedoch haben die eben auch einen entsprechenden Enterprise-Highend Preisaufschlag. Da ich jedoch entsprechend Speicherhungrig bin, wird das Array mit eben 10TB Platten neu gebaut.
Zudem überlege ich, ob ich mir nicht z.B. eine DS3615xs hinstelle, die ich dann mit 10GBE anfahren kann. Benötigt der Normalmensch nicht, der mit mehreren Geräten auf die NAS zugreift, aber ich will die Performance mit nur zwei Rechnern abrufen können.

Einsatzzweck
Die 1815+/415+ lässt sich natürlich als NAS für das Speichern von allerhand Daten nutzen. Besonders schön ist, dass die NAS an ein ggf. vorhandenes Domänencontroller angebunden werden kann, worüber dann die User eben gerade einmal mitverwaltet werden können. Auch gut geeignet um mit z.B. VEEAM seine VM-Infrastruktur ein ordentliches Speicherziel für die Backups liefern zu können. Dies Funktioniert besonders gut, wenn mehrere VEEAM Server gemeinsam mit je 1GBE arbeiten, da 10GBE auf 2/4x LACP nur manchmal/garkeinen Vorteil gegenüber 1GBE bringt. Für den Endanwender sollte das jedoch kein Problem darstellen. Unterstützt werden SMB/CIFS, AFP/ Time Machine, NFS/rsync & FTP in verschiedenen Geschmacksrichtungen (FTP/FTPS/SFTP), dazu kommt noch iSCSI.
Für kleine/demo Umgebungen kann dies als günstige Alternative zum klassischen SAN von z.B. Netapp gesehen werden.
Für die Anbindung von Überwachungskameras ist die NAS ebenfalls geeignet, jedoch sollte man die Kompatibilität vorab bei Synology prüfen. Zudem kommen bei mehr als zwei Kameras Kosten für weitere Lizenzen dazu, die ebenfalls für z.B. eine 4er Lizenz mit ca. 150-180€ zu Buche schlagen.
Wer will kann die NAS mit Cloud Station auch als sein persönliches Dropbox nutzen und mit Cloud Sync seine NAS mit einer anderen NAS oder $Cloudstoreanbieter Synchronisieren.

Sicherheit
Userverwaltung, Anbindung an zentrale Authentifizierungsstellen (AD, LDAP, SSO-Client), Berechtigungen auf Freigaben/Ordner/Daten, DoS Protection, Firewall, automatischen Blocken nach zu vielen Fehlversuchen, eigene Zertifikate nutzbar usw.
Dazu kommt noch Hyper Backup für Sicherungen auf USB-HDDs/andere Synology NAS/rsync.
Ebenso kommt mit dem btrfs Filesystem die Möglichkeit seine Daten zu Snapshotten und auf eine andere NAS zu Syncen.

Fazit
Die Synology DS1815+ ist für mich das perfekte Datengrab. Sie ist vom Stromverbrauch akzeptabel (ca.110 Watt mit 8 HDDs), für meinen Geschmack leise, bringt viele Möglichkeiten der Erweiterung mit und hat eine annehmbare Performance.

Wer kauft welche?
– DS415+
Einsteiger & KMU die eine einfache Speicherlösung suchen mit Anspruch auf Performance, dem jedoch eine geplante Maximalkapazität von ca. 28TB ausreichen. Jedoch würde ich zur etwas neueren DS916+ raten.
– DS916+ mit 8GB RAM
Eigentlich alle, die mehr wollen, als nur ein Ort, wo man seine Backup hinwirft. Intern bis ca.28TB möglich (nutzbar) und erweiterbar mit DX513 5-Bay Erweiterung. Kann ich mir auch gut als Surveillancestation vorstellen.
– DS1815+
KMU & Performanceuser, die viel Speicherplatz haben wollen. Einfach dadurch, dass die NAS mit 8-Bay kommt und mit 2x DS513 5-Bay auf 18-Bay möglich kommt. Je nach Umgebung auch als iSCSI Target vorstellbar, wenn 1GBE ausreichend ist.
– DS2415+
Wie DS1815+ nur mit mehr möglichem Speicherplatz.