Sundar Pichai über Sicherheit
Künstliche Intelligenz: Google gegen Wahltäuschung und für globale Regeln

| Redaktion 
| 25.02.2024

Kaum eine moderne Technologie wird so sehr mit Sicherheitsbedenken assoziiert wie Künstliche Intelligenz. Dass sie abseits aller Chancen auch Risiken mit sich bringt, ist führenden Vorantreibern wie Google sehr wohl bewusst. Gemeinsam mit anderen Branchengrößen soll KI-generierter Beeinflussung im Superwahljahr 2024 nun ein Riegel vorgeschoben werden.

"Ich glaube, dass der Wandel, den wir gerade mit KI erleben, der tiefgreifendste in unserem Leben sein wird, weitaus größer als die Umstellung auf das Mobiltelefon oder das Internet zuvor", stellte Alphabet- und Google-CEO Sundar Pichai bereits im Dezember per Blogeintrag fest. Dem 51-jährigen zufolge "kratzen wir gerade erst an der Oberfläche dessen, was möglich ist". Gleichzeitig lässt er potenzielle Gefahren der Technologie nicht außen vor.

Pichai: „Wir bauen Sicherheitsmaßnahmen ein und arbeiten mit Regierungen und Expert:innen zusammen, um Risiken zu bewältigen, die mit leistungsfähigerer KI entstehen". Die Äußerungen des indischstämmigen US-Amerikaners haben seinerzeit den Launch von Gemini begleitet, das als bisher "größtes und leistungsfähigstes KI-Modell" beworben wird und jüngst vor allem durch seine übermäßige Insistenz auf inklusive Darstellungen aufgefallen ist.

Ein KI-Regelwerk? Gerne global

In einem Interview mit der Süddeutschen Zeitung bekräftigt Sundar Pichai nun seine Unterstützung für den EU Artificial Intelligence Act, mit dem die Europäische Union entsprechende Anwendungen künftig in drei Risikokategorien einteilen (inakzeptables Risiko, hohes Risiko und nicht risikoreich) möchte. Sundar Pichai begrüßt eine internationale Lösung nicht nur grundsätzlich, sondern regt darüber hinaus sogar das aktive Nachdenken über eine transatlantisch oder sogar global geltende Regelung an.

Dem Gespräch mit der SZ ist auch Sundar Pichais Eingeständnis zu entnehmen, dass Künstliche Intelligenz derzeit bestehende Jobs verdrängen werde. Ausgleichend erwartet er auf der anderen Seite neu entstehende Arbeitsplätze, wobei er das Anlernen von Sprachmodellen als Beschäftigung der Zukunft beispielhaft herausstellt. Auch Sorgen hinsichtlich der KI-bezogenen Cybersecurity teilt der Google-CEO durchaus und verweist auf die breite Palette möglicher Schwachpunkte, gegen die man sich absichern müsse.

Tech-Unternehmen gegen Täuschungsmanöver

Auf der Münchener Sicherheitskonferenz haben sich Google und 19 weitere führende Tech-Unternehmen zudem auf den "Tech Accord to Combat Deceptive Use of AI in 2024 Elections" verständigt. Gemäß seines Namens beinhaltet er eine Reihe von Verpflichtungen zur Bekämpfung von KI-Content, der zur Täuschung von Wählern gedacht ist. In mehr als 40 Nationen werden dieses Jahr über vier Milliarden Menschen um ihre Stimme gebeten, weshalb vermehrte Beeinflussungsversuche plausibel scheinen.

Alle teilnehmenden Unternehmen verpflichten sich demnach zur gemeinschaftlichen Arbeit an Tools, die die Online-Verbreitung solcher KI-Inhalte erkennen und unterbinden können. Im Fokus stehen dabei KI-generierte Audio-, Video- und Bilddateien, die das Aussehen, die Stimme oder die Handlungen von wichtigen Interessenvertretern einer Wahl vortäuschen oder verändern. Auch gegen irreführende Falschinformation hinsichtlich Ort und Zeit von Abstimmungen soll vorgegangen werden.

Zu den insgesamt acht ausformulierten Verpflichtungen bekennen sich zum Start in alphabetischer Reihenfolge Adobe, Amazon, Anthropic, ARM, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap, Stability AI, TikTok, TrendMicro, TruePic und X.

Kommentar schreiben

* Pflichtfelder.

leadersnet.TV