Geoffrey Hinton hat bei Google gekündigt und warnt nun vor den Gefahren der künstlichen Intelligenz

Geoffrey Hinton hat bei Google gekündigt und warnt nun vor den Gefahren der künstlichen Intelligenz

Er hat der KI zum Durchbruch verholfen. Jetzt sorgt sich Geoffrey Hinton, dass Chatbots wie GPT-4 ernsthaften Schaden anrichten könnten.


Geoffrey Hinton hat vor rund einem Jahrzehnt verändert, wie Maschinen auf die Welt blicken. Gemeinsam mit zwei Doktoranden hat er an der Universität von Toronto, wo er damals Professor war, ein neuronales Netzwerk entwickelt, das Tausende von Fotos analysieren und sich selbst beibringen konnte, Objekte wie Blumen oder Autos zu erkennen. Und das mit einer Sicherheit, die bis dahin unerreichbar schien.

Die Firma, die Hinton mit den beiden Doktoranden gegründet hatte, wurde kurz darauf für 44 Millionen Dollar von Google gekauft. Seitdem arbeitete der heute 75-jährige Kognitionspsychologe und Computerwissenschaftler beim Tech-Konzern und wurde zu einer der prominentesten Figuren auf dem Gebiet. 2018 erhielten er und zwei langjährige Mitstreiter den Turing-Award, der als Nobelpreis der Informatik gilt.

Anfang Woche hat Hinton, der oft als «godfather», also Pate, der künstlichen Intelligenz (KI) bezeichnet wird, in der «New York Times» seinen Abgang bei Google verkündet. Dabei habe sein Alter eine Rolle gespielt. Doch er wolle in Zukunft auch frei über die Gefahren von KI sprechen können.

Im Gespräch mit der BBC, die ihn daraufhin interviewte, bezeichnet er KI-Chatbots als «ziemlich gefährlich». Er sagt: «Im Moment sind sie noch nicht intelligenter als wir, soweit ich das beurteilen kann. Aber ich denke, sie könnten es bald sein.»

Sorge um gefälschte Fotos und Killerroboter
Unmittelbar sorgt sich Hinton vor allem darum, dass das Internet mit gefälschten Fotos, Videos und Texten überflutet werden könne und der Durchschnittsnutzer nicht mehr unterscheiden könne, was wahr und was falsch sei. Er befürchtet, dass KI den Arbeitsmarkt auf den Kopf stellen wird – und Personen wie Anwaltsgehilfen oder Übersetzer, die Routineaufgaben erledigen, ihre Arbeit verlieren könnten.

Zukünftige Varianten der Technologie könnten gar eine Bedrohung für die Menschheit darstellen, da sie oft unerwartete Verhaltensweisen aus den vielen Daten, die sie analysieren, ableiteten, sagt Hinton. Das würde zum Problem, wenn Firmen der KI erlauben würden, nicht nur eigenständig einen Computer-Code zu generieren, sondern diesen auch in Eigenregie anzuwenden. Er hat Angst vor dem Tag, wenn wahrhaftig autonome Waffensysteme – Killerroboter – Realität werden.

Dass KI so mächtig wird, dass er nun vor ihr warnt, dazu hat Hinton selbst beigetragen. Seine wegweisende Forschung im Bereich neuronale Netzwerke und Deep Learning hat den Grundstein gelegt für generative Chatbots wie GPT-4, die zurzeit die Welt elektrisieren. Unter neuronalen Netzen versteht man Systeme aus Algorithmen, die grob der Art und Weise nachempfunden sind, wie unser Gehirn arbeitet und lernt. Neuronale Netze ermöglichen es einer KI, aus großen Datensätzen zu lernen, was man als Deep Learning bezeichnet.

Neuronale Netzwerke haben Hinton seine gesamte Akademikerlaufbahn begleitet. 1972, als Doktorand an der Universität von Edinburgh, hat Hinton seine Faszination für das Feld entdeckt. Acht Jahre später schaffte er es zum Professor an der Carnegie Mellon University in Pittsburgh, Pennsylvania. Bald entschied er sich, nach Toronto zu wechseln. Als Grund gab Hinton an, er wolle keine Gelder vom Pentagon annehmen. Der Grossteil der KI-Forschung in Amerika wurde damals vom Verteidigungsministerium finanziert. Hinton stand der Idee, KI auf dem Schlachtfeld einzusetzen, stets sehr skeptisch gegenüber.

2012 gelang ihm in Toronto dann der Durchbruch bei den neuronalen Systemen, der Hinton schließlich zu Google brachte. Ilya Sutskever, einer der beteiligten Doktoranden , wurde später zum Chefwissenschaftler der Firma Open AI, an der Microsoft beteiligt ist. Beide Unternehmen trieben die Entwicklung ihrer neuronalen Netzwerke voran, die eine immer größere Menge an Daten verarbeiten konnten. Hinton sah darin eine leistungsfähige Möglichkeit, mit der Maschinen Sprache verstehen und erzeugen konnten. Doch er dachte, sie sei der Art, wie Menschen mit Sprache umgehen, weiterhin unterlegen.

Entwicklung hat sich beschleunigt
Im vergangenen Jahr hat er seine Ansicht geändert. Google und Open AI hätten ihren Chatbots Bard und Chat-GPT immer größere Mengen an Daten zum Verarbeiten gegeben, und Hinton gelangte zu der Überzeugung, dass die Systeme die menschliche Intelligenz in Teilen überholt hätten. «Vielleicht ist das, was in diesen Systemen vor sich geht, tatsächlich viel besser als das, was im Gehirn vor sich geht», sagt Hinton der «New York Times».

Google war lange sehr vorsichtig mit KI-Anwendungen. Das habe sich nun geändert, sagt Hinton. Nachdem Microsoft seine Suchmaschine Bing mit der KI-Technologie von Open AI angereichert habe, sei ein Wettkampf zwischen den beiden Unternehmen entbrannt, der ohne weltweite Regulation fast nicht mehr zu stoppen sei. Die Aussichten dafür schätzt Hinton jedoch als sehr gering ein. Seine Hoffnung ist, dass sich Forscher zusammentun und an Möglichkeiten arbeiten, um die Technologie zu kontrollieren.

Hinton ist nicht allein mit seiner Warnung vor unregulierter KI-Entwicklung. Im März dieses Jahres riefen rund tausend Personen aus dem Technologiesektor in einem offenen Brief dazu auf, das Training von KI-Systemen für sechs Monate zu unterbrechen. Zu den Unterzeichnern gehören auch Prominente wie Elon Musk, Yuval Noah Harari und Yoshua Bengio, der 2018 gemeinsam mit Hinton den Turing-Award erhielt. Hinton selbst hat diesen und andere ähnliche Aufrufe nicht unterzeichnet. Er habe seinen damaligen Arbeitgeber nicht öffentlich kritisieren wollen, sagt er.

Bereut er sein Lebenswerk? Ein Teil von ihm tue das, sagt er heute. Doch er beruhige sich mit der in solchen Momenten üblichen Ausrede: «Wenn ich es nicht getan hätte, hätte es jemand anderes getan.»

Quelle: NZZ

Tags: , ,

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Chat beginnen.
1
Haben Sie Fragen?
Hallo,
kann ich helfen? Ich bin immer für Sie da.