Die ehemalige Google-Forscherin Meredith Whittaker warnt vor den Risiken der Künstlichen Intelligenz (KI), insbesondere vor der Art und Weise, wie Konzerne damit umgehen. Die Vorstellung, dass die Software ihre Schöpfer übertrumpft und die Kontrolle übernimmt, sei eine Urangst des Menschen vor KI. Whittaker sieht jedoch deutlich konkretere Risiken der Technologie und der Macht der Konzerne.
Whittakers Sicht auf die Angst vor einer Übernahme durch KI
Whittaker vergleicht die Angst vor einer Übernahme durch KI mit Geistergeschichten, die viel emotionales Gewicht haben. Menschen würden intuitiv auf die Technologie reagieren, weil sie sich als begierig zuhörender Gesprächspartner präsentiere. „Und daraus entsteht eine Art Wunschdenken, etwas Menschliches in ihr zu sehen“, glaubt sie.
Whittakers Konflikt mit Google
Whittaker hatte Google im Streit verlassen, als der Konzern unter dem Projektnamen „Maven“ Zielsysteme für das US-Militär auf KI-Basis entwickeln wollte. Whittaker und einige Kollegen wehrten sich lautstark gegen die Pläne. Obwohl Google sich letztlich aus dem Projekt zurückzog, wurde Whittaker nach eigenen Angaben gedrängt, das Unternehmen zu verlassen.
Whittakers Reaktion auf Geoffrey Hintons Aussagen
Whittaker sieht die Aussagen des KI-Forschers Geoffrey Hinton, der das Unternehmen verlassen hat und wegen der Gefahren sein Lebenswerk bereut, überraschend kritisch. Hinton hatte gefordert, gesetzliche Grenzen für die KI-Entwicklung zu setzen, da man nicht wisse, ob man sie kontrollieren könne. Whittaker ist enttäuscht von Hintons plötzlicher Reue-Tour und begründet dies damit, dass er in seinem Lebenabend seine Sicht auf die Technologie und ihre Gefahren dramatisch verändert habe.