Do.. Nov. 20th, 2025
Sundar Pichai warnt vor blindem Vertrauen in KI

Sundar Pichai, CEO von Googles Mutterkonzern Alphabet, hat vor einem „blindem Vertrauen“ in KI-Tools gewarnt und in einem Interview mit der BBC deren Potenzial für Ungenauigkeiten betont.

In einem Exklusivgespräch mit der BBC räumte Herr Pichai die Fehleranfälligkeit aktueller KI-Modelle ein und plädierte für deren Nutzung in Verbindung mit anderen zuverlässigen Informationsquellen.

Er betonte die Bedeutung eines vielfältigen Informationsökosystems, in dem sich Einzelpersonen nicht ausschließlich auf KI für ihr Weltverständnis verlassen.

„Deshalb nutzen die Leute auch die Google-Suche, und wir haben andere Produkte, die stärker auf der Bereitstellung genauer Informationen basieren“, sagte Herr Pichai.

Einige Experten argumentieren jedoch, dass große Technologieunternehmen wie Google der Verbesserung der Zuverlässigkeit ihrer KI-Systeme Vorrang einräumen sollten, anstatt die Last der Überprüfung der Ausgabe auf die Benutzer abzuwälzen.

Während Herr Pichai den Nutzen von KI-Tools für kreative Aufgaben erkannte, riet er den Nutzern, „zu lernen, diese Tools für das zu nutzen, worin sie gut sind, und nicht blind auf alles zu vertrauen, was sie sagen.“

„Wir sind stolz auf die Menge an Arbeit, die wir investieren, um uns so genaue Informationen wie möglich zu verschaffen, aber die aktuelle hochmoderne KI-Technologie ist anfällig für einige Fehler“, sagte er der BBC.

Google fügt seinen KI-Tools Haftungsausschlüsse hinzu, die Benutzer auf die Möglichkeit von Ungenauigkeiten hinweisen.

Trotz dieser Maßnahmen sieht sich das Unternehmen weiterhin Kritik hinsichtlich von Fehlern ausgesetzt, die durch seine KI-Produkte generiert werden.

Die Einführung der KI-Überblicke von Google, die Suchergebnisse zusammenfassen sollen, stieß auf Gegenreaktionen und Spott aufgrund ungenauer und unzuverlässiger Antworten.

Die Tendenz generativer KI, wie z. B. Chatbots, irreführende oder falsche Informationen zu verbreiten, ist eine Sorge, die viele Experten teilen.

Gina Neff, Professorin für verantwortungsvolle KI an der Queen Mary University of London, sagte im Today-Programm von BBC Radio 4: „Wir wissen, dass diese Systeme Antworten erfinden, und sie erfinden Antworten, um uns zu gefallen – und das ist ein Problem.“

„Es ist in Ordnung, wenn ich frage: ‚Welchen Film soll ich als nächstes sehen?‘, es ist etwas ganz anderes, wenn ich wirklich sensible Fragen zu meiner Gesundheit, meinem geistigen Wohlbefinden, zu Wissenschaft, zu Nachrichten stelle“, fügte sie hinzu.

Professor Neff forderte Google auf, mehr Verantwortung für die Genauigkeit seiner KI-Produkte zu übernehmen, anstatt die Last auf die Verbraucher abzuwälzen.

„Das Unternehmen bittet nun darum, seine eigene Klausur zu bewerten, während es die Schule niederbrennt“, sagte sie.

Die Tech-Branche hat mit Spannung auf die Einführung von Googles neuestem Consumer-KI-Modell Gemini 3.0 gewartet, das darauf abzielt, Marktanteile von ChatGPT zurückzugewinnen.

Google stellte das Modell am Dienstag vor und verkündete, dass es „eine neue Ära der Intelligenz“ im Kern seiner Produkte, einschließlich seiner Suchmaschine, einläuten werde.

In einem Blogbeitrag gab das Unternehmen an, dass Gemini 3 branchenführende Leistungen beim Verstehen und Beantworten verschiedener Eingabemodi wie Foto, Audio und Video sowie „modernste“ Schlussfolgerungsfähigkeiten biete.

Im Mai begann Google mit der Integration eines neuen „KI-Modus“ in seine Suche, der seinen Gemini-Chatbot integriert, der den Benutzern die Erfahrung der Beratung durch einen Experten ermöglichen soll.

Damals bezeichnete Herr Pichai die Integration von Gemini in die Suche als eine „neue Phase des KI-Plattformwechsels“.

Dieser Schritt ist Teil der Strategie des Technologiekonzerns, im Wettbewerb mit KI-Diensten wie ChatGPT, die Googles Dominanz bei der Online-Suche in Frage gestellt haben, wettbewerbsfähig zu bleiben.

Seine Kommentare stimmen mit früheren BBC-Forschungen überein, die ergaben, dass KI-Chatbots Nachrichtenartikel ungenau zusammenfassen können.

Inhalte von der BBC-Website wurden in ChatGPT von OpenAI, Copilot von Microsoft, Gemini von Google und Perplexity AI eingespeist, und die anschließenden von KI generierten Antworten enthielten „erhebliche Ungenauigkeiten“.

Umfangreichere BBC-Forschungen haben ergeben, dass KI-Assistenten trotz Fortschritten Nachrichten immer noch zu etwa 45 % falsch darstellen.

Während seines BBC-Interviews räumte Herr Pichai die inhärente Spannung zwischen dem rasanten Tempo der technologischen Entwicklung und der Implementierung von Schutzmaßnahmen zur Verhinderung potenzieller Schäden ein.

Für Alphabet besteht die Bewältigung dieser Spannung laut Herrn Pichai darin, „gleichzeitig kühn und verantwortungsbewusst“ zu sein.

„Wir bewegen uns schnell durch diesen Moment. Ich denke, unsere Verbraucher fordern das“, sagte er.

Herr Pichai merkte auch an, dass der Technologiekonzern seine Investitionen in die KI-Sicherheit proportional zu seinen Investitionen in die KI-Entwicklung erhöht hat.

„Zum Beispiel stellen wir Open-Source-Technologie zur Verfügung, mit der Sie erkennen können, ob ein Bild von KI generiert wurde“, sagte er.

Auf Fragen zu Elon Musks jahrealten Kommentaren gegenüber den Gründern von OpenAI – in denen er Bedenken äußerte, dass DeepMind (jetzt im Besitz von Google) eine KI-„Diktatur“ schaffen könnte – antwortete Herr Pichai, dass „kein Unternehmen eine so mächtige Technologie wie KI besitzen sollte“.

Er fügte jedoch hinzu, dass das aktuelle KI-Ökosystem zahlreiche Unternehmen umfasst.

„Wenn es nur ein Unternehmen gäbe, das KI-Technologie entwickelt, und alle anderen müssten sie nutzen, wäre ich auch besorgt, aber wir sind so weit von diesem Szenario entfernt“, schloss er.

Werbetreibende nutzen KI, um Werbung zu personalisieren, aber nicht jeder ist damit einverstanden, dass das eine gute Idee ist.

Die Warenexporte in die USA stiegen im Oktober zum ersten Mal seit fünf Monaten und legten im Vergleich zum September um 14,5 % zu.

Menschen mit Behinderungen in Gloucestershire teilen Unternehmen mit, dass sie sich wünschen, dass Technologie persönlicher wird.

Zu den verschobenen Veröffentlichungen gehören Cells at Work! und Crayon Shin-chan the Movie: Super Hot! The Spicy Kasukabe Dancers, teilten chinesische Staatsmedien mit.

Saving System hat ein Gerät entwickelt, das Unternehmen angeblich helfen kann, Strom zu sparen.

Von ProfNews