Von wegen nur Tomaten 🍅: Niederländer baut Selbstbau-KI-Computer
Wenn es um KI geht, werfen die Tech-Giganten Milliarden in den Ring. Ziel: Den Markt dominieren. Doch ein niederländischer Tüftler namens Erik Winter, der auf ewintr.nl über seinen Selbstbau-KI-Computer berichtet, zeigt, dass es auch anders geht.
Respekt für diese beeindruckende Ingenieursleistung!
Ist unter den Lesern auch so ein Daniel Düsentrieb, der zu Hause eigene Höllenmaschinen baut? Und sei es auch nur zum Zocken…
Warum überhaupt ein eigener Selbstbau-KI-Computer?
Die Sorge ist berechtigt: Was passiert, wenn KI-Modelle in Zukunft ihre Ausgaben nach den Wünschen der zahlungskräftigsten Kunden anpassen? Der Autor malt ein zugespitztes Bild: Eine amerikanische KI, die zwar über das Tiananmen-Massaker spricht, aber nur, während sie in Coca-Cola-Werbestimme „Ho ho ho“ flötet. Ganz so schlimm ist es noch nicht, aber der Wunsch nach unabhängiger KI-Nutzung ist nachvollziehbar. Und KI in Verbindung mit wirtschaftlicher und politischer Macht is ein angsteinflösendes Thema.
Lesetipp: Kleine Geschichte des Handys
Die Hardware-Herausforderung
Ein leistungsfähiger KI-Computer braucht vor allem eines: viel Speicher. GPUs mit 24 GB VRAM kosten neu ein kleines Vermögen. Unser niederländischer Bastler? Kauft clever gebraucht. Für rund 1.700 Euro baut er eine Workstation mit 48 GB VRAM zusammen. Ein großes Lob für diese pragmatische Herangehensweise.
Der Einkaufszettel für Bastler
- 2x Nvidia Tesla P40: 659,98 Euro
- HP Z440 Workstation (gebraucht): 568,50 Euro
- NZXT C850 Gold Netzteil: 135,17 Euro
- Gainward GT 1030 (Dummy-GPU): 108,75 Euro
- Nvidia Tesla Lüfter-Kit: 98,51 Euro
- MODDIY Adapterkabel: 39,99 Euro
- Akasa Multifan Adapter: 5,05 Euro
Gesamtkosten: 1.695,15 Euro – nicht billig, aber im Vergleich zum High-End-Setup ein Schnäppchen.
Die Tücken des Selbstbaus
Der Weg war nicht ohne Hürden. Die HP-Workstation stellte sich mit proprietären Anschlüssen quer, und die Tesla-GPUs brauchten eine spezielle Kühlung. Witziges Detail: Die Kühler für die Server-GPUs sind so laut, dass man besser einen Gehörschutz parat hat. 🦻
Leistung, die überzeugt
Mit Modellen wie Mistral und Gemma liefert das Setup solide Performance: 15 Tokens pro Sekunde bei einem 24B-Modell. Klar, kein Supercomputer, aber für lokales Arbeiten ein starkes Ergebnis.
Cudos
Der Autor beweist: Man braucht keinen Silicon-Valley-Budgettopf, um eigene KI-Projekte umzusetzen. Es braucht Wissen, Kreativität und ein wenig Geduld. Wer sich für den gesamten Bauprozess interessiert, sollte unbedingt den Originalartikel lesen. Viel Spaß beim Basteln!