Jetzt warnen ChatGPT-Macher vor künftiger Superintelligenz

Mitgründer: „Haben keine Möglichkeit zu steuern oder zu kontrollieren“. Microsoft stellt Superalignment-Team zusammen.

Der ChatGPT-Anbieter OpenAI will ein neues Forschungsteam zusammenstellen und eine Stange Geld investieren, um die Sicherheit bei der Anwendung von KI für die Menschheit zu gewährleisten. „Die enorme Macht der Superintelligenz könnte zu einer Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen“, formulierten es OpenAI-Mitgründer Ilya Sutskever und der Leiter der OpenAI-Abteilung für zukünftige Ausrichtung Jan Leike in einem Blog-Beitrag in drastischen Worten. „Derzeit haben wir keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie eigene Wege geht.“

Bessere Techniken zur Kontrolle

Die Autoren sagen voraus, dass noch in diesem Jahrzehnt superintelligente KI-Systeme entstehen könnten, die intelligenter seien als Menschen. Der Mensch werde bessere Techniken benötigen als zurzeit zur Verfügung stehen, sie zu kontrollieren. Microsoft werde daher 20 Prozent seiner Rechnerleistung in den nächsten vier Jahren dafür einsetzen, eine Lösung dieses Problems zu erarbeiten. Zudem sei das Unternehmen dabei, eigens dafür ein neues „Superalignment Team“ zusammenzustellen.

EU, USA und UNO reagierten bereits

Die EU hat sich bereits auf einen Gesetzentwurf zur Regulierung von KI geeinigt (AI Act). In den USA wird nach dem Vorbild der EU über eine Einstufung von KI-Anwendungen in Risikoklassen diskutiert, von der die Auflagen für die Unternehmen abhängen. Auch der Uno-Generalsekretär António Guterres äußert sich kritisch zu dem Thema. Er schlägt vor, eine von den Uno-Staaten gemeinsam geführte Regulierungsbehörde einzusetzen.

Experten fordern globale Priorisierung

Im März hatte eine Gruppe Tech-Experten einen offenen Brief unterzeichnet, in dem sie auf mögliche Risiken von KI für die Gesellschaft hinwiesen und eine sechsmonatige Pause bei der Entwicklung von Systemen forderten, die leistungsfähiger seien als Open GPT-4.

Im Mai hatten Hunderte Expertinnen und Experten vor künstlicher Intelligenz gewarnt: „Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg“, lautet es übersetzt. Zu den Unterzeichnern zählen Sam Altman, CEO von OpenAI, Demis Hassabis, Chef von Google DeepMind, sowie die KI-Forscher Geoffrey Hinton und Yoshua Bengio.

Kommentar schreiben

* Pflichtfelder.

leadersnet.TV