Shadow Computing

Ich habe mir im anfang November einen Shadow Account für ein Jahr angelegt um für mich zu evaluieren, ob „Cloud Computing“ nun auch im Endusermarkt „sinnvoll“ angekommen ist. Anbieter wie Drpoobox bieten zwar schon lange ihre Dienstleistungen an, werden aber von den meisten Endusern nicht als Cloud wahrgenommen.

Meine Motivation hierfpr war, dass ich den einzigen Computer mit „aktueller“ GPU als Server im Keller stehen habe und ausschließlich für Testing verwende. Zudem fehlt mir der bedarf an einem Standgerät, da ich auf grund verschiedener Nutzungsorte dann gleich mehrere benötigen würde. Ein Laptop in der Leistungsklasse fällt ebenfalls aus, da ich sehr viel Wert auf Akkulaufzeit bei Produktivanwendungen lege – halt normaler Office Kram.

Nun also eine vollständuge Windows VM mit Lizenz zu einem, aus meiner Sicht, Preis der für Gelegenheitsuser vollkommen in ordnung ist, zumal die GPU Dediziert zugewiesen wird und somit fast vollständig für den User zur Verfügung steht. In etwa 3-8%, je nachdem ob reiner Desktop oder Gaming Betrieb gehen jedoch für das Encoding des Videostreams zum User drauf.

Was mir sofort aufgefallen ist, dass im Officebetrieb mit meinen typischen Endgeräten keine Probleme auftreten. (W520 & x201) Sobald es aber um 1920p Spieledecodung & Downsaming geht, wird es echt hakelig.
Bei genauerer Betrachtung zeigt sich, dass die Leistung der GPU in den Clients einfach an Ihre grenzen stößt, da der Client das an die Video Engine auslagert und der eingedliche GPU Core sich meistens im Idle befindet (W520) oder bei 70% hängt (x201).
Dies führt z.B. zu so „lustigen“ Effekten, wie das z.B. bei Hitman ich Klicke, den Schuss höre, jedoch das Bild bis zu 2sec später kommt, da von der GPU massiv Frames gedroppt werden
Als gegentest habe ich dann Board mit i3-2100 & ATI HD 6670/5770 getestet, womit es dann eiwandfrei lief. Allerding ist mir der Stromverbrauch von diesem Setup mit über 70 Watt für einen quasi Thinclient dann auch wieder zuviel.

Lösungsansatz war dann den Steam Link der ja als Streaminclient ausgelegt ist als Userdevice zu missbrauchen. Allerdings musste ich hierbei mehrere Lösungen für verschiedene hürden finden.
1. Die Shadow VM bekommt eine Interne IP und z.B. Portforwarding ist nicht vorgesehen.
2. Shadow rät dringend von der Nutzung von VPN auf der VM ab
3. Der Einsatz von Admintools wie Nmap sind Organisatorisch untersagt
4. VM ist aber nicht reguliert, somit ist die Installation trozudem möglich
Somit war die erste überlegung TAP Treiber für OpenVPN zu werfen und dann jeweils einen Tunnel zu den einzelnen Standorten die ich anbinden will aufzusetzen.
Umsetzung – Client Installieren, Serverconfig erstellen, Zugriff von Netz auf Client zulassen, Server sagen, dass er dem Client immer die selbe IP geben soll, Config in Client werfen (jaja, ber webmail an mich selbst…), Tunnel aufmachen.
Als Letztes dem Steam Link die IP der Shadow VM mitteilen und los gehts.

Ergebnis: Steam übernimmt das Grabbing, Decodung und den Transport über VPN. Im Client ist eingestellt das Steam nicht im Big Picture Mode Starten soll & direkt zum Desktop gehen soll.

Hiermit ist dann ein vollständig normales Arbeiten möglich, wenn auch nur auf einem Monitor. In Zukunft wird es auch einen eigenen Shadow Client namens Ghost geben. Bleibt zu hoffen, dass dieser Dual Monitor fähig ist, bzw. zwei Anschlüsse besitzt um das Feature im Zweifel nachträglich reinzupatchen.

Praxistest auf einer Verantstaltung… Auf der Techweek Frankfurt funktionierte es, nachdem ich eine Static IP bekommen hatte, ebenso auf dem 35c3.
Dort sogar über WLAN, leider nicht überall wegen den vielen rogue AP’s in gewissen bereichen. Ansonsten geht genügend stabile!!! nutzbare Bandbreite durch um es sinnvoll zu nutzen.

Comment: My Cool Data Center, is getting Hot, Need to Improve on That – 527

This is an comment so Morten Video „My Cool Data Center, is getting Hot, Need to Improve on That – 527“.

Hi Morten,

I’ve ask my colleagues from the datacenter expert team how they would cool such a small 8-20m² colocation room.
They see the following as essential:
do:
– filter the air (like an K&N filter from the car tuning store)
– mesure or calculate the air flow of your servers
– use a return flap on the intake and outtake, to have a defined airflow
– monitor temperature and humidity
– use A & B feed with ups and genset (they build Tier II to IV Datacenters the hole day)
– use surveillance, access control, intrusion detection (and allso high secure ones)
– use redundancy all time n+1/2 (WTF – for at home?!?)

don’t do:
– use high pressure intake fans, otherwise the fans in the server will become generators and that would damage the Servers over time
so one fan that push out the hot air is just fine
– short circuit the air typ’s

Solution:
They told me tho use an PLC to controle the system like a Siemens Logo.
My idea was to use an raspi or aduino with
2/3x DHT22 (behind the rack, in front of/in the room, outside)
5V Relay board 4 or 8 channels to turn the fan’s on and off to reduce power consumption (easy way) or if possible control fan speeds
some scripts, wiringPi, lol_dht22

Here is an shot overview of my plan:

And here the simple script to check temperature and humidity, to make a switching decision:

#!/bin/bash
#
# Script mit schaltbefehlen je nach Luftfeuchtigkeit und Temperatur
# Script to controll air exchange
# Variablen
#humi=$(sudo /var/www/loldht 7 | grep -i "humidity" | cut -d ' ' -f3)
humi=$(sudo /var/www/loldht 7 | grep -i "humidity" | cut -d ' ' -f3 | cut -d '.' -f1)
#temp=$(sudo /var/www/loldht 7 | grep -i "temperature" | cut -d ' ' -f7)
temp=$(sudo /var/www/loldht 7 | grep -i "temperature" | cut -d ' ' -f7 | cut -d '.' -f1)
# hier Vergleichswert einlesen
# fill variables with data
humi_max=70
temp_max=35
temp_mode25=25
temp_mode24=24
temp_mode23=23
# Luftfeuchtigkeit - humidity 70% Max.
if [ $humi -ge $humi_max ];
then
/home/pi/schalter/r1-on.sh
/home/pi/schalter/r2-on.sh
sleep 600
/home/pi/schalter/r1-off.sh
/home/pi/schalter/r2-off.sh
else
# Temperatur 35° Max.
if [ $temp -ge $temp_max ];
then
/home/pi/schalter/r1-on.sh
/home/pi/schalter/r2-on.sh
sleep 10
/home/pi/schalter/r1-off.sh
/home/pi/schalter/r2-off.sh
else
# Temperatur 25° Max.
if [ $temp -ge $temp_mode25 ];
then
/home/pi/schalter/r1-on.sh
/home/pi/schalter/r2-on.sh
sleep 5
/home/pi/schalter/r1-off.sh
/home/pi/schalter/r2-off.sh
else
# Temperatur 24° Max.
if [ $temp -ge $temp_mode24 ];
then
/home/pi/schalter/r1-on.sh
/home/pi/schalter/r2-on.sh
sleep 4
/home/pi/schalter/r1-off.sh
/home/pi/schalter/r2-off.sh
else
# Temperatur 23° Max.
if [ $temp -ge $temp_mode23 ];
then
/home/pi/schalter/r1-on.sh
/home/pi/schalter/r2-on.sh
sleep 3
/home/pi/schalter/r1-off.sh
/home/pi/schalter/r2-off.sh
else
echo "nö"
#Ende der IF's
fi
fi
fi
fi
fi
#
# Test
echo "Luftfeuchtigkeit " $humi # > /home/pi/temp/demo
echo "Temperatur " $temp # >> /home/pi/temp/demo

or the download with all my tapstops:

AVM Repeater 300E mit externen Antennen

Ich hatte am Wochenende mal wieder lust an etwas herumzuschrauben, dabei ist mir mein AVM 300E aufgefallen, dass der nur ein bzw. zwei Balken Signalstärke anzeigt. Also aufgeschraubt und nachgesehen, was da noch so geht uns siehe da, zwei IPX Pigtail Anschlüsse. Da ich von meinem TL-WR1043ND, bei dem ich dem ich drei TL-ANT2408CL angeschraubt habe, noch die drei Serienantennen übrig hatte habe ich mal nach „IPX Pigtail Adapter auf RP-SMA“ gesucht. Im Prinzip muss man mit einer Zange nur zwei Schlitze in das Gehäuse klipsen und schon kann man die RP-SMA Anschlüsse befestigen. Dannach nur noch die Antennen dranschrauben und schon geht es besser, alternativ auch gern eine TL-ANT2424B als Uplink.
Mit den „neuen“ Antennen komme ich nun auf mindestens drei Balken.

Review: Asus P9D WS / Das Testsystem für ca.1000€

Anforderung
Es sollte eine Intelplattform Quadcore mit 32GB RAM ECC, PCIe Splitter, Workstation/Server Hardware, Hardwarebeschleunigung für VT-x & VT-d

Zielsetzung
Virtualisierungsplattform mit guter * PCIe Anbindung und Hardwarepassthrough
* PCIe x16 von der CPU soll gesplittet werden und nicht nur vom Chipsatz kommen

Teileliste
Asus P9D WS – ca. 220€
– Workstation Mainboard
– ECC Support
– Intel C226 Chipsatz
– Splittet den PCIe 3.0 x16 von der CPU nach Bedarf auf x16 oder x8/x8 oder x8/x4/x4
– Chipsatz liefert 6xSATA3/PCIe 2.0 x4/PCIe 2.0 x1/2x PCI/2x Intel I210 LAN onBoard
Kingston KVR16E11K4/32 32GB DDR3 ECC 1600MHz CL11 – ca. 235€
– 32GB ECC RAM der auf der HCL von Kingston steht
Intel Xeon E3-1231v3 4×3,4GHz – ca. 280€
– lieber nicht, besser E3-1245v3, weil dieser eine onBoard GPU hat
IBM M1015 – 120€
– IT-Mode für ZFS
Nvidia FX 5800 PCI – 20€
– weil CPU ohne onBoard GPU
bequiet! Pore Power L7-530W – ca. 60€
Fractal Design ARC MIDI R2 – 80€

Anwendungsfall
Bei mir läuft ESXi 5.5 drauf, dabei wird der IBM M1015 direkt an die FreeNAS VM durchgereicht und bekommt so die Festplatten mit 12GB RAM. Speedlimit liegt bei ca. 600MB/s, eben der Flaschenhals des Controllers mit SAS2/SATA3. Diese stellt einen FTP Server und ein iSCSI Target bereit. Dieses wird auf der ESXi als entsprechendes Blockdevice eingebunden.
Darauf kommt eine Windows VM die Grafikkarte (ATI HD 5770) durchgereicht und der Store liegt auf dem iSCSI Target.
Dazu kommt noch eine der Intel X520 10GBE für den guten Datendurchsatz, die auch iSCSI an einen weiteren Host weiterreichen kann.
Außerdem eine ATI HD 5770, die bald mal gegen was neueres gewechselt werden muss, zudem verdeckt zwar einen PCI Slot, aber egal.

Was kommen könnte
Neuere Grafikkarte, da die ATI HD 5770 etwas in die Jahre gekommen ist. Wichtig ist nur, dass die nur genau zwei Slots belegen darf, da sonst kein Platz mehr für die 10GBE Karte ist.
NVMe Flash Cache/Storage über den Chipsatz. Dazu noch ein neuer Storagecontroler, z.B. Broadcom 9300-8i um mehr Bandbreite zu dem Festplatten zu haben. Für einen 9300-16i müsste ein neues Case her oder ein 4i um mit vier SATA SSDs zu arbeiten.
Mehr USB/LAN kann übrigens auch nicht schaden.

Benchmark Ergebnisse

Typ Model CPU cb CPU cb Single MP Ratio Grafikkarte OpenGL FPS
Intel NUC5i5RYH Intel i5-5250U 2x@1,6GHz 259 108 2,39 Intel HD 6000 36,74
Intel i3-2100 2x@3,1GHz 267 105 2,55 ATI HD 6670 37,76
Lenovo W520 Intel i7-2720QM 4x@2,2GHz 427 102 4,21 Nvidia Quadro 1000M 28,91
Lenovo T440p Intel i7-4710MQ 4x@2,5GHz 522 137 3,79 Nvidia GeForce GT 730M 52,34
dieses System Intel E3-1231 v3 4x@3,4GHz 727 151 4,83 ATI HD 5770 77,81
HP Workstation Intel i7-4770 4x@3,4GHz 729 148 4,94 Nvidia Quadro K600 33,02

Fazit
Als VM Host für zuhause ist dieses System sehr gut geeignet, jedoch merke ich, dass mir die Anzahl der von der CPU kommenden PCIe Lanes nicht ausreichen wird. Daher denke ich aktuell über eine CPU mit 40 Lanes auf Basis des Sockel 2011-3 nach. Dabei sind zwar die Mainboards größer, jedoch wird mein Bedarf gewiss weiter steigen.

endlich 10GBE? ja!

Da bin ich mal wieder auf ebay unterwegs und suche nach“X520-DA1/DA2“, …ups
300€ & 2 Tage später liegt ein Set aus zwei Intel X520-DA1 mit 3m SFP+ Kabel und zwei Intel 10GBE SFPs Multimode (FTLX8571D3BCV-IT) im Briefkasten. Wenn ich die Dinger schon mal habe, kann ich auch damit spielen gehen.
Also eingebaut, Linux gestartet, iperf rausgeholt und losgetestet.
Ergebnis 9,42GBit/s…ok, damit kann ich arbeiten 😀

img_0059-cut-kopie