Angst vor KI
Im REWE habe ich einen Aushang gesehen, bei dem einem Hilfe gegen die Künstliche Intelligenz in Windows gegeben wird. Es wirkt etwas merkwürdig.
Das hier ist der Aushang, ich habe die Telefonnummer unten weggeschnitten:
Es wirkt schon ziemlich bedrohlich. Ein Skynet-Gehirn im Computer, das schreckliche Kürzel »KI« in der Mitte und ein Stop-Schild. Der Titel:
Lösungen gegen Künstliche Intelligenz bei Windows 10 und 11 (wenn kein Linuxumstieg erwünscht/möglich)
Ich empfinde die Bezeichnung »KI« schon immer als Signal dafür, dass eine unseriöse Diskussion folgt, die mit Fakten wenig zu tun hat. Der Begriff »Künstliche Intelligenz« wird meist von Vertrieblern genutzt, die einem ein mittelmäßiges Produkt verkaufen wollen oder sehr ängstlichen Menschen. Es hat so einen ähnlichen Hall wie »Gentechnik«, das Ende der Zivilisation und eine Invasion einer Roboterarmee.
Beruflich arbeite ich mit solchen Dingen und bin daher eventuell etwas voreingenommen. In jedem Fall weiß ich aber, was dort technisch hintersteht und was die Teile können und was eher nicht. Von daher bevorzuge ich die Bezeichnungen Maschinenlernen und Neuronale Netze. Dies sind präzisere Bezeichnungen für die Technik, die da genutzt wird.
Kennt ihr das Konzept der Ausgleichsgraden? Man hat ein paar Datenpunkte und legt eine Kurve dadurch, damit es so halbwegs passt. Ich habe mir gerade mal ein paar Daten ausgedacht und mit Libre Office Calc da eine Trendlinie reingelegt. So sieht das aus:
Was ich dort aber auch gemacht habe ist einen Zusammenhang modelliert. Wir haben eine unabhängige Variable, den Tag. Und eine abhängige Variable, den Wert. Mit der Ausgleichsgraden habe ich ein lineares Modell daran angepasst. Mit diesem kann ich dann Werte zwischen den Tagen und davor und dahinter vorhersagen. Wie gut diese Vorhersage ist, muss man dann schauen. Aber prinzipiell habe ich das modelliert.
Das kann man schon zu Maschinenlernen zählen! Der Computer hat nämlich ohne mein weiteres zutun das Modell an die Daten angepasst, er hat also von den Daten gelernt. Gut, es sind nur zwei Parameter, die der Computer hier gelernt hat. Aber es verdeutlicht das Prinzip: Man modelliert einen Zusammenhang zwischen Eingabe und Ausgabe, damit man für weitere Eingaben die zugehörige Ausgabe abschätzen kann. Vor allem aber müssen wir nicht verstehen, was der Zusammenhang wirklich ist, der Computer kann sein Modell daran anpassen. Wir sehen aber auch direkt die Limitierungen.
Nun haben wir hier zwei Parameter gehabt. ChatGPT hat 175.000.000 Parameter, es ist also ein deutlich flexibleres Modell, das diverse Feinheiten noch modellieren kann. Trainiert wird es auf den Prompts als Eingaben und den Antworten als Ausgaben. Es lernt wie man auf Fragen antwortet. Dabei ist das Modell nicht perfekt, aber nützlich genug. Wichtig ist jedoch, dass da keine Magie passiert. Wahrscheinlich wäre niemand erstaunt, wenn man von der Ausgleichsgrade die Vorhersage für den nächsten Tag ablesen würde, der Trend war ja klar. Bei ChatGPT ist es aber prinzipiell ähnlich, nur eben komplexer.
Vor diesem Hintergrund habe ich keine Angst vor »KI« in der aktuellen Form. Maschinenlernen ist eine mächtige Technik, mit der man diverse Aufgaben, in denen Menschen gut sind, modellieren kann. Problematisch ist nicht diese Technik an sich. Problematisch ist das, was dann darum herum passiert.
Brutal ist es in sozialen Medien mit Feed. Habt ihr schon einmal darüber nachgedacht, wie eigentlich die Reihenfolge des Feeds zusammengestellt wird? Früher war das bei Twitter ja einfach nur eine chronologische Folge der Tweets, sortiert nach Erstellungsdatum. Das haben sie dann aber geändert. Dahinter steckt brutales Maschinenlernen. Und es geht hier nicht um die Interessen der Nutzer, es geht um Werbeeinnahmen. Die Maschine hat ein Ziel: Möglichst viel Werbeeinnahmen zu erzeugen. Und so lernt das Modell was der beste nächste Beitrag im Feed ist um die Nutzer möglichst lange am Bildschirm zu fesseln. Das Teil fängt dann an herumzuprobieren und stellt schnell fest, dass Empörung, Wut und Hass die Leute fesseln. Sie fangen auch an unkritisch die Werbung zu konsumieren. Dem Modell ist egal, welche psychologischen und gesellschaftlichen Konsequenzen das hat. Vielmehr erfüllt es seinen Zweck.
Ist Maschinenlernen jetzt per se böse? Ich finde nicht, Maschinenlernen ermöglichst auch eine bessere Schrifterkennung in eingescannten Dokumenten, die Möglichkeit Briefe per handgeschriebenem Code zu frankieren oder langweilige Aufgaben zu automatisieren. Das grundlegende Problem sind die Konzerne, die jedes Mittel nutzen um mehr Gewinn zu machen. Siehe zu den sozialen Netzwerken die Bücher von Lanier2 und Eyal1.
Was will Microsoft hier denn tun? Ich habe zum Beispiel diesen Microsoft Blogartikel gefunden. Dort geht es vor allem um Windows Copilot, einem Chatbot der einem hilft diverse Dinge zu tun. Dann gibt es auch noch Dinge für Entwickler, damit man seine eigenen Programme damit einbinden kann. Es soll wahrscheinlich eine neue Art Nutzerinterface sein, damit man mit natürlicher Sprache Dinge tun kann.
An sich ist die »KI« hier gar nicht das Problem. Das ganze baut sehr wahrscheinlich auf den Large Language Models (LLMs) auf. Diese kann man relativ klein runterbrechen und dann auch auf Endgeräten ausführen. Die Llama-Modelle von Meta sind so ein Beispiel. Die kann man herunterladen und damit herumspielen. Und damit kann man dann tolle Dinge bauen. Die saugen gar keine Daten ab, alles findet einfach nur lokal statt, so wie viele andere Programme auch. »KI« ist hier nicht das Problem.
Das Problem entsteht, wenn die Daten aber im großen Stil an einen Anbieter gehen und dort dann verwertet werden. Viel läuft ja heutzutage in der Cloud, also im Rechenzentrum der Anbieter. Und wenn die die Daten wirklich nicht speichern, ist auch das kein Problem. Der Anbieter muss vertrauenswürdig sein. Und solche Anbieter gibt es ja durchaus. Bei Microsoft kann man sich als Privatkunde da aber nicht so sicher sein, nachdem was die sonst schon so alles abziehen. Ich denke da insbesondere an das neue Outlook, das die Zugangsdaten direkt zu Microsoft schickt ohne das klar zu machen.
Von daher ist das Problem hier gar nicht die KI. Das Problem ist, dass Microsoft die Daten einsammelt und an sich schickt. Sie nutzen KI letztlich nur als Vorwand um die Nutzer anzulocken.
Aber warum kann man das nicht auf dem Rechner selbst machen? Die größten LLMs laufen auf NVIDIA DGX H100, das sind Server mit acht Leistungsstarken GPUs. Diese Server sind so teuer, dass man bei Sysgen den Preis nur auf Anfrage bekommt. Bei Delta Computer findet man einen Nettopreis von 306.000 EUR, also 364.000 EUR nach Steuern. Man kann die H100 auch einzeln kaufen, kostet dann 35.000 EUR für die schlechtere PCIe-Version. Und man braucht mindestens acht davon für ein fettes Modell. Auf so einem Server kann Microsoft dann tausende Kunden bedienen, die jeweils nur eine kurze Anfrage schicken. Das Modell kann viel leistungsstärker sein als ein Modell, das man lokal auf seinem Endgerät ausführt. Um also ein tolles Modell bereitstellen zu können, braucht es enorme Rechenleistung, die man nicht in Endgeräten hat.
Wie gesagt, das Problem ist nicht die KI an sich. Das Problem ist der Rest darum herum. Microsoft und andere Firmen haben schon Daten abgesaugt, ohne dass sie dafür KI gebraucht haben. Selbst »Linux« ist nicht automatisch sicher. Ubuntu lieferte mal alle Startmenü-Suchen an Amazon, was zu massiver Kritik führte. Da steckte keine KI hinter, das war einfach nur eine Suchfunktion.
Ich frage mich ein bisschen, was der Anbieter der Anzeige dann anbietet. Vielleicht einfach nur irgendwo in der Systemsteuerung den Windows Copilot deaktivieren? Und dafür von verängstigten Leuten Geld zu nehmen? Gut, kann man machen, je nach Preis ja auch ein faires Angebot.
Die wirklichen Gefahren von KI sehe ich aber anderer Stelle. Wir haben immer leistungsfähigere Modell, die immer echtere Inhalte erzeugen können. Die erzeugten Bilder scheinen noch ganz gut erkennbar zu sein. Aber auch das wird sich ändern. Nun gibt es mit OpenAI Sora schon die Möglichkeit ganze Videos zu erzeugen. Und es braucht schon einen sehr feinen Blick um zu erkennen, dass sie nicht echt sind. Ebenfalls haben wir das Problem mit Deep Fakes von Stimmen und Videos. Das stürzt die Gesellschaft in eine Medien- und Vertrauenskrise. Irgendwann kann man nichts mehr vertrauen, weil es ja von einem Modell erzeugt worden sein könnte. Ich weiß auch noch nicht, wie wir da als Gesellschaft mit umgehen können. Das ist der eigentlich gruselige Teil. Eine KI-Suche im Startmenü finde ich da gar nicht mal so schlimm.