Sprache auswählen

German

Down Icon

Land auswählen

Netherlands

Down Icon

Einblicke in den Gipfel, auf dem China der Welt seine KI-Agenda vorstellte

Einblicke in den Gipfel, auf dem China der Welt seine KI-Agenda vorstellte
Hinter verschlossenen Türen legen chinesische Forscher den Grundstein für eine neue globale KI-Agenda – ohne Beteiligung der USA.

Drei Tage nachdem die Trump-Regierung ihren mit Spannung erwarteten KI-Aktionsplan veröffentlicht hatte, legte die chinesische Regierung ihren eigenen KI-Politikplan vor. War der Zeitpunkt ein Zufall? Ich bezweifle es.

Chinas „Global AI Governance Action Plan“ wurde am 26. Juli veröffentlicht, dem ersten Tag der World Artificial Intelligence Conference (WAIC), der größten jährlichen KI-Veranstaltung in China. Geoffrey Hinton und Eric Schmidt waren unter den zahlreichen Vertretern der westlichen Technologiebranche, die an den Feierlichkeiten in Shanghai teilnahmen. Auch unser WIRED-Kollege Will Knight war vor Ort.

Die Stimmung beim WAIC war das genaue Gegenteil von Trumps Vision einer amerikaweiten, regulierungsarmen KI, erzählt Will. In seiner Eröffnungsrede plädierte der chinesische Premierminister Li Qiang ernüchternd für die Bedeutung globaler Zusammenarbeit im Bereich KI. Ihm folgten eine Reihe prominenter chinesischer KI-Forscher, die in Fachvorträgen drängende Fragen beleuchteten, die die Trump-Regierung offenbar weitgehend ignoriert.

Zhou Bowen, Leiter des Shanghai AI Lab, einer der führenden KI-Forschungseinrichtungen Chinas, lobte die Arbeit seines Teams zur KI-Sicherheit am WAIC. Er schlug außerdem vor, dass die Regierung eine Rolle bei der Überwachung kommerzieller KI-Modelle auf Schwachstellen spielen könnte.

In einem Interview mit WIRED äußerte Yi Zeng, Professor an der Chinesischen Akademie der Wissenschaften und einer der führenden KI-Experten des Landes, seine Hoffnung, dass KI-Sicherheitsorganisationen weltweit Wege zur Zusammenarbeit finden. „Am besten wäre es, wenn Großbritannien, die USA, China, Singapur und andere Institute zusammenkommen“, sagte er.

Die Konferenz umfasste auch nichtöffentliche Treffen zu Fragen der KI-Sicherheitspolitik. Paul Triolo, Partner der Beratungsfirma DGA-Albright Stonebridge Group, erklärte nach seiner Teilnahme an einer solchen Konferenz gegenüber WIRED, die Diskussionen seien trotz der auffälligen Abwesenheit amerikanischer Führung produktiv gewesen. Da die USA nicht mehr im Spiel seien, „wird nun eine Koalition wichtiger Akteure im Bereich KI-Sicherheit unter gemeinsamer Führung von China, Singapur, Großbritannien und der EU die Bemühungen vorantreiben, Leitplanken für die Entwicklung bahnbrechender KI-Modelle zu errichten“, so Triolo gegenüber WIRED. Er fügte hinzu, dass nicht nur die US-Regierung gefehlt habe: Von allen großen US-KI-Laboren habe nur Elon Musks xAI Mitarbeiter zum WAIC-Forum geschickt.

Viele westliche Besucher waren überrascht, wie sehr sich die Diskussionen über KI in China um Sicherheitsvorschriften drehen. „Man konnte in den letzten sieben Tagen buchstäblich pausenlos Veranstaltungen zur KI-Sicherheit besuchen. Das war bei einigen anderen globalen KI-Gipfeln nicht der Fall“, erzählte mir Brian Tse, Gründer des in Peking ansässigen KI-Sicherheitsforschungsinstituts Concordia AI. Anfang dieser Woche veranstaltete Concordia AI in Shanghai ein ganztägiges Sicherheitsforum mit berühmten KI-Forschern wie Stuart Russel und Yoshua Bengio.

Schaltpositionen

Vergleicht man Chinas KI-Konzept mit Trumps Aktionsplan, scheint es, als hätten die beiden Länder ihre Positionen getauscht. Als chinesische Unternehmen begannen, fortschrittliche KI-Modelle zu entwickeln, befürchteten viele Beobachter, sie würden durch staatliche Zensurauflagen ausgebremst. Nun wollen US-Politiker sicherstellen, dass heimische KI-Modelle „objektive Wahrheit verfolgen“. Wie mein Kollege Steven Levy letzte Woche im Backchannel- Newsletter schrieb , ist das ein „eklatanter Akt ideologischer Top-down-Voreingenommenheit“. Chinas KI-Aktionsplan liest sich hingegen wie ein globalistisches Manifest: Er empfiehlt den Vereinten Nationen, die internationalen KI-Bemühungen mitzugestalten, und legt nahe, dass Regierungen bei der Regulierung der Technologie eine wichtige Rolle spielen.

Obwohl sich ihre Regierungen stark unterscheiden, bereiten den Menschen in China und den USA in Bezug auf die Sicherheit von KI viele ähnliche Sorgen: Modellhalluzinationen, Diskriminierung, existenzielle Risiken, Schwachstellen in der Cybersicherheit usw. Da die USA und China bahnbrechende KI-Modelle entwickeln, „die auf derselben Architektur trainiert sind und dieselben Methoden zur Skalierung von Gesetzen verwenden, sind die gesellschaftlichen Auswirkungen und die damit verbundenen Risiken sehr, sehr ähnlich“, so Tse. Das bedeutet auch, dass die akademische Forschung zur KI-Sicherheit in beiden Ländern konvergiert, unter anderem in Bereichen wie skalierbarer Aufsicht (wie Menschen KI-Modelle mit anderen KI-Modellen überwachen können) und der Entwicklung interoperabler Sicherheitsteststandards.

Doch chinesische und amerikanische Politiker haben deutlich gemacht, dass sie zu diesen Themen sehr unterschiedliche Haltungen haben. Einerseits versuchte die Trump-Regierung kürzlich, ein zehnjähriges Moratorium für die Verabschiedung neuer staatlicher KI-Vorschriften zu verhängen, scheiterte jedoch. Andererseits betonen chinesische Politiker, darunter sogar Xi Jinping selbst, zunehmend, wie wichtig es sei, KI-Leitplanken zu errichten. Peking arbeitet zudem intensiv an der Ausarbeitung nationaler Standards und Regeln für die Technologie, von denen einige bereits in Kraft sind.

Während Trump mit seiner unorthodoxen und inkonsistenten Politik auf Abwege gerät, wirkt die chinesische Regierung zunehmend erwachsen. Mit seinem neuen KI-Aktionsplan versucht Peking, die Gunst der Stunde zu nutzen und der Welt eine Botschaft zu senden: Wer bei dieser weltverändernden Innovation die Führung übernehmen will, der ist hier richtig.

Charme-Offensive

Ich weiß nicht, wie wirksam Chinas Charmeoffensive letztlich sein wird, aber der globale Rückzug der USA erscheint Peking wie eine Jahrhundertchance, seinen Einfluss auszuweiten – insbesondere in einer Zeit, in der jedes Land nach Vorbildern sucht, die ihm helfen, die Risiken der KI zu verstehen und sie am besten zu bewältigen.

Eines weiß ich allerdings nicht: Wie bereitwillig wird die chinesische KI-Industrie diesen verstärkten Fokus auf Sicherheit annehmen? Während die chinesische Regierung und akademische Kreise ihre Bemühungen um KI-Sicherheit deutlich verstärkt haben, zeigt sich die Industrie bislang weniger begeistert – genau wie im Westen.

Chinesische KI-Labore geben weniger Informationen über ihre KI-Sicherheitsbemühungen preis als ihre westlichen Kollegen, wie aus einem kürzlich veröffentlichten Bericht von Concordia AI hervorgeht. Von den 13 KI-Vorreitern in China, die der Bericht analysierte, veröffentlichten nur drei in ihren Forschungspublikationen detaillierte Informationen zu Sicherheitsbewertungen.

Will erzählte mir, dass mehrere Tech-Unternehmer, mit denen er auf der WAIC sprach, sich Sorgen über KI-Risiken wie Halluzinationen, Modellverzerrungen und kriminellen Missbrauch machten. Doch was AGI anging, schienen viele optimistisch, dass die Technologie positive Auswirkungen auf ihr Leben haben würde, und machten sich weniger Sorgen über Dinge wie Arbeitsplatzverlust oder existenzielle Risiken. Insgeheim, so Will, gaben einige Unternehmer zu, dass ihnen die Bewältigung existenzieller Risiken nicht so wichtig sei wie die Frage, wie sie skalieren, Geld verdienen und die Konkurrenz schlagen können.

Das klare Signal der chinesischen Regierung lautet jedoch, Unternehmen zu ermutigen, sich mit den Sicherheitsrisiken von KI auseinanderzusetzen. Es würde mich nicht überraschen, wenn viele Startups im Land ihre Haltung ändern würden. Triolo von der DGA-Albright Stonebridge Group sagte, er erwarte, dass chinesische Forschungslabore mehr bahnbrechende Sicherheitsarbeiten veröffentlichen würden.

Einige WAIC-Teilnehmer sehen Chinas Fokus auf Open-Source-KI als Schlüsselfaktor. „Da chinesische KI-Unternehmen zunehmend leistungsstarke KIs als Open Source anbieten, stehen ihre amerikanischen Kollegen unter Druck, dasselbe zu tun“, sagte Bo Peng, ein Forscher, der das Open-Source-Large-Language-Modell RWKV entwickelt hat, gegenüber WIRED.

Peng stellt sich eine Zukunft vor, in der verschiedene Nationen – auch solche, die nicht immer einer Meinung sind – gemeinsam an KI arbeiten. „Ein wettbewerbsfähiges Umfeld mit mehreren leistungsstarken Open-Source-KIs ist im besten Interesse der KI-Sicherheit und der Zukunft der Menschheit“, erklärte er. „Denn verschiedene KIs verkörpern naturgemäß unterschiedliche Werte und werden sich gegenseitig in Schach halten.“

Dies ist eine Ausgabe des Newsletters „Made in China “ von Zeyi Yang und Louise Matsakis . Lesen Sie hier frühere Newsletter .

wired

wired

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow