KI-generierte Inhalte werden immer schwieriger zu erkennen und stellen neue Risiken für die Öffentlichkeit dar. Der Privatsektor muss schädliche KI-Inhalte eindämmen, während die Zivilgesellschaft dafür sorgt, dass die Vorschriften die Menschenrechte respektieren. Als führendes Unternehmen im Bereich KI haben wir uns verpflichtet, einen umfassenden Ansatz zum Schutz der Öffentlichkeit und unserer Gemeinschaften zu verfolgen, der auf sechs Bereichen basiert: 

– Implementierung einer starken Sicherheitsarchitektur 
– Einsatz von Tools zur Medienherkunft 
– Schutz unserer Dienste vor missbräuchlichen Inhalten 
– Zusammenarbeit über Sektoren hinweg, um ein sichereres digitales Ökosystem zu fördern 
– Förderung der öffentlichen Bildung 
– Eintreten für modernisierte Gesetze zum Schutz der Öffentlichkeit 

Quelle: Protecting the public from abusive AI-generated content  – Microsoft On the Issues

Übersetzung

KI-generierte Deepfakes sind realistisch, für fast jeden einfach zu erstellen und werden zunehmend für Betrug, Missbrauch und Manipulation eingesetzt – insbesondere, um Kinder und Senioren ins Visier zu nehmen. Während der Technologiesektor und gemeinnützige Gruppen in jüngster Zeit Schritte unternommen haben, um dieses Problem anzugehen, ist deutlich geworden, dass auch unsere Gesetze weiterentwickelt werden müssen, um Deepfake-Betrug zu bekämpfen. Kurz gesagt, wir brauchen neue Gesetze, um schlechte Akteure daran zu hindern, Deepfakes zu nutzen, um Senioren zu betrügen oder Kinder zu missbrauchen.  
Während wir und andere uns zu Recht auf Deepfakes konzentriert haben, die bei der Wahlbeeinflussung eingesetzt werden, muss die weitreichende Rolle, die sie bei diesen anderen Arten von Kriminalität und Missbrauch spielen, gleichermaßen beachtet werden. Glücklicherweise haben Mitglieder des Kongresses eine Reihe von Gesetzen vorgeschlagen, die einen großen Beitrag zur Lösung des Problems leisten würden. Die Regierung konzentriert sich auf das Problem, Gruppen wie AARP und NCMEC sind stark in die Gestaltung der Diskussion eingebunden, und die Industrie hat zusammengearbeitet und in angrenzenden Bereichen eine solide Grundlage geschaffen, die hier angewendet werden kann.  
Eines der wichtigsten Dinge, die die USA tun können, ist die Verabschiedung eines umfassenden Gesetzes gegen Deepfake-Betrug, um zu verhindern, dass Cyberkriminelle diese Technologie nutzen, um normale Amerikaner zu bestehlen. 
Wir haben nicht alle Lösungen oder perfekte Lösungen, aber wir wollen dazu beitragen und Maßnahmen beschleunigen. Aus diesem Grund veröffentlichen wir heute 42 Seiten, die unsere Grundlage für das Verständnis der Herausforderung bilden, sowie eine umfassende Reihe von Ideen, einschließlich Empfehlungen für die harte Arbeit und die Richtlinien anderer. Unten finden Sie das Vorwort, das ich zu dem, was wir veröffentlichen, geschrieben habe. 
____________________________________________________________________________________ 
Der folgende Text wurde von Brad Smith für den Bericht „Protecting the Public from Abusive AI-Generated Content“ von Microsoft verfasst. Den vollständigen Bericht finden Sie hier: https://aka.ms/ProtectThePublic
„Das größte Risiko besteht nicht darin, dass die Welt zu viel unternimmt, um diese Probleme zu lösen. Es besteht darin, dass die Welt zu wenig unternimmt. Und es besteht nicht darin, dass die Regierungen zu schnell handeln. Es ist, dass sie zu langsam sein werden.“ 
Diese Sätze bilden den Abschluss des Buches ‚Tools and Weapons‘, das ich 2019 mitverfasst habe. Wie der Titel schon sagt, untersucht das Buch, wie technologische Innovation sowohl als Werkzeug für den gesellschaftlichen Fortschritt als auch als mächtige Waffe dienen kann. In der sich schnell entwickelnden digitalen Landschaft von heute bietet der Aufstieg der künstlichen Intelligenz (KI) sowohl beispiellose Möglichkeiten als auch erhebliche Herausforderungen. KI verändert kleine Unternehmen, das Bildungswesen und die wissenschaftliche Forschung; sie hilft Ärzten und medizinischen Forschern bei der Diagnose und Heilung von Krankheiten; und sie erweitert die Möglichkeiten von Kreativen, neue Ideen auszudrücken. Dieselbe Technologie führt jedoch auch zu einer Zunahme missbräuchlicher KI-generierter Inhalte oder, wie wir in diesem Dokument erörtern werden, missbräuchlicher „synthetischer“ Inhalte. 
Fünf Jahre später befinden wir uns an einem Punkt in der Geschichte, an dem jeder, der Zugang zum Internet hat, KI-Tools verwenden kann, um ein äußerst realistisches Stück synthetischer Medien zu erstellen, das zur Täuschung verwendet werden kann: ein Stimmklon eines Familienmitglieds, ein Deepfake-Bild eines politischen Kandidaten oder sogar ein manipuliertes Regierungsdokument. KI hat die Manipulation von Medien erheblich erleichtert – schneller, zugänglicher und mit wenig Fachwissen. So schnell wie die KI-Technologie zu einem Werkzeug geworden ist, ist sie auch zu einer Waffe geworden. Während dieses Dokument in Druck geht, hat die US-Regierung kürzlich bekannt gegeben, dass sie erfolgreich eine von einem Nationalstaat gesponserte KI-gestützte Desinformationsoperation unterbrochen hat. FBI-Direktor Christopher Wray sagte in seiner Erklärung: „Russland beabsichtigte, diese Botfarm zur Verbreitung von KI-generierter ausländischer Desinformation zu nutzen und ihre Arbeit mit Hilfe von KI zu skalieren, um unsere Partner in der Ukraine zu untergraben und geopolitische Narrative zu beeinflussen, die der russischen Regierung genehm sind.“ Wir sollten die US-Strafverfolgungsbehörden für ihre kooperative und erfolgreiche Zusammenarbeit mit einer Technologieplattform bei der Durchführung dieser Operation loben, aber wir müssen auch anerkennen, dass diese Art von Arbeit gerade erst beginnt.
Der Zweck dieses Weißbuchs ist es, politische Entscheidungsträger, führende Persönlichkeiten der Zivilgesellschaft und die Technologiebranche zu einem schnelleren Vorgehen gegen missbräuchliche KI-generierte Inhalte zu ermutigen. Bei der Bewältigung dieses komplexen Themas ist es unerlässlich, dass der öffentliche und der private Sektor zusammenkommen, um dieses Problem direkt anzugehen. Die Regierung spielt eine entscheidende Rolle bei der Festlegung von Rechtsrahmen und Richtlinien, die eine verantwortungsvolle Entwicklung und Nutzung von KI fördern. Weltweit ergreifen Regierungen Maßnahmen, um die Online-Sicherheit zu verbessern und illegale und schädliche Inhalte zu bekämpfen.
Der Privatsektor hat die Verantwortung, Innovationen zu entwickeln und Schutzmaßnahmen zu implementieren, die den Missbrauch von KI verhindern. Technologieunternehmen müssen ethische Überlegungen in ihren KI-Forschungs- und Entwicklungsprozessen priorisieren. Durch Investitionen in fortschrittliche Analyse-, Offenlegungs- und Minderungstechniken kann der Privatsektor eine entscheidende Rolle dabei spielen, die Erstellung und Verbreitung schädlicher KI-generierter Inhalte einzudämmen und so das Vertrauen in das Informationsökosystem aufrechtzuerhalten.
Die Zivilgesellschaft spielt eine wichtige Rolle dabei, sicherzustellen, dass sowohl staatliche Regulierung als auch freiwillige Maßnahmen der Industrie die grundlegenden Menschenrechte, einschließlich der Meinungsfreiheit und der Privatsphäre, wahren. Durch die Förderung von Transparenz und Rechenschaftspflicht können wir das Vertrauen der Öffentlichkeit in KI-Technologien stärken.
Auf den folgenden Seiten werden drei spezifische Dinge getan: 1) die Schäden, die durch missbräuchliche KI-generierte Inhalte entstehen, zu veranschaulichen und zu analysieren, 2) den Ansatz von Microsoft zu erläutern und 3) politische Empfehlungen zu geben, um mit der Bekämpfung dieser Probleme zu beginnen. Letztendlich erfordert die Bewältigung der Herausforderungen, die sich aus missbräuchlichen KI-generierten Inhalten ergeben, eine gemeinsame Front. Durch die Nutzung der Stärken und des Fachwissens des öffentlichen, privaten und NGO-Sektors können wir ein sichereres und vertrauenswürdigeres digitales Umfeld für alle schaffen. Gemeinsam können wir die Kraft der KI für immer freisetzen und uns gleichzeitig vor ihren potenziellen Gefahren schützen.
Microsofts Verantwortung bei der Bekämpfung missbräuchlicher KI-generierter Inhalte 
Anfang dieses Jahres haben wir einen umfassenden Ansatz zur Bekämpfung missbräuchlicher KI-generierter Inhalte und zum Schutz von Menschen und Gemeinschaften vorgestellt, der auf sechs Schwerpunktbereichen basiert: 

Eine starke Sicherheitsarchitektur.
Dauerhafte Medienherkunft und Wasserzeichen.
Schutz unserer Dienste vor missbräuchlichen Inhalten und Verhaltensweisen
Starke Zusammenarbeit innerhalb der Branche sowie mit Regierungen und der Zivilgesellschaft.
Modernisierte Gesetzgebung zum Schutz der Menschen vor dem Missbrauch von Technologie.
Aufklärung und Sensibilisierung der Öffentlichkeit.

Im Mittelpunkt all dieser sechs Punkte steht unsere Verantwortung, gegen den missbräuchlichen Einsatz von Technologie vorzugehen. Wir sind der Meinung, dass der Technologiesektor weiterhin proaktive Schritte unternehmen muss, um die Schäden zu beheben, die wir in verschiedenen Diensten und Plattformen beobachten. Wir haben konkrete Schritte unternommen, darunter: 

Implementierung einer Sicherheitsarchitektur, die Red-Team-Analysen, präventive Klassifizierungen, Blockierung missbräuchlicher Eingabeaufforderungen, automatisierte Tests und schnelle Sperren von Benutzern, die das System missbrauchen, umfasst.

Automatisches Anhängen von Herkunftsmetadaten an Bilder, die mit dem DALL-E 3-Modell von OpenAI in Azure OpenAI Service, Microsoft Designer und Microsoft Paint erstellt wurden.

Entwicklung von Standards für die Herkunft und Authentifizierung von Inhalten durch die Coalition for Content Provenance and Authenticity (C2PA) und Umsetzung des C2PA-Standards, damit Inhalte, die diese Technologie enthalten, automatisch auf LinkedIn gekennzeichnet werden.

Fortgesetzte Maßnahmen zum Schutz der Benutzer vor Online-Schäden, u. a. durch den Beitritt zum Lantern-Programm der Tech Coalition und die Erweiterung der Verfügbarkeit von PhotoDNA.

Einführung neuer Erkennungswerkzeuge wie Azure Operator Call Protection für unsere Kunden, um potenzielle Telefonbetrügereien mithilfe von KI zu erkennen.

Einhaltung unserer Verpflichtungen im Rahmen des neuen Tech Accord zur Bekämpfung des betrügerischen Einsatzes von KI bei Wahlen.

Schutz der Amerikaner durch neue gesetzgeberische und politische Maßnahmen 
Im Februar dieses Jahres schlossen sich Microsoft und LinkedIn Dutzenden anderer Technologieunternehmen an, um auf der Münchner Sicherheitskonferenz den Tech Accord to Combat Deceptive Use of AI in 2024 Elections ins Leben zu rufen. Der Accord fordert Maßnahmen in drei Schlüsselbereichen, die wir als Inspiration für die zusätzliche Arbeit in diesem Whitepaper genutzt haben: Bekämpfung der Erstellung von Deepfakes, Erkennung und Reaktion auf Deepfakes sowie Förderung von Transparenz und Widerstandsfähigkeit. 
Zusätzlich zur Bekämpfung von KI-Deepfakes bei unseren Wahlen ist es wichtig, dass Gesetzgeber und politische Entscheidungsträger Maßnahmen ergreifen, um unsere kollektiven Fähigkeiten zu erweitern, um (1) die Authentizität von Inhalten zu fördern, (2) missbräuchliche Deepfakes zu erkennen und darauf zu reagieren und (3) der Öffentlichkeit die Mittel an die Hand zu geben, sich über die Gefahren synthetischer KI zu informieren. Wir haben neue politische Empfehlungen für Entscheidungsträger in den Vereinigten Staaten erarbeitet. Bei der Betrachtung dieser komplexen Ideen sollten wir auch daran denken, diese Arbeit in einfachen Worten zu formulieren. Diese Empfehlungen zielen darauf ab, 

unsere Wahlen zu schützen.
Senioren und Verbraucher vor Online-Betrug schützen.
Frauen und Kinder vor Online-Ausbeutung schützen.

In diesem Zusammenhang sind drei Ideen erwähnenswert, die im Kampf gegen betrügerische und missbräuchliche KI-generierte Inhalte eine übergroße Wirkung entfalten könnten. 

Erstens sollte der Kongress ein neues Bundesgesetz gegen Deepfake-Betrug erlassen. Wir müssen Strafverfolgungsbeamten, einschließlich der Generalstaatsanwälte, einen eigenständigen Rechtsrahmen zur Verfolgung von KI-generiertem Betrug und Schwindel geben, da diese sich immer schneller und komplexer ausbreiten.

Zweitens sollte der Kongress Anbieter von KI-Systemen dazu verpflichten, modernste Herkunftsnachweise zu verwenden, um synthetische Inhalte zu kennzeichnen. Dies ist unerlässlich, um Vertrauen in das Informationsökosystem aufzubauen, und wird der Öffentlichkeit helfen, besser zu verstehen, ob Inhalte KI-generiert oder manipuliert sind.

Drittens sollten wir sicherstellen, dass unsere Bundes- und Landesgesetze über sexuelle Ausbeutung und sexuellen Missbrauch von Kindern und nicht einvernehmliche intime Bilder aktualisiert werden, um KI-generierte Inhalte einzubeziehen. Strafen für die Erstellung und Verbreitung von CSAM und NCII (ob synthetisch oder nicht) sind vernünftig und dringend erforderlich, wenn wir die Geißel der schlechten Akteure, die KI-Tools für sexuelle Ausbeutung nutzen, mildern wollen, insbesondere wenn die Opfer oft Frauen und Kinder sind.

Diese Ideen sind nicht unbedingt neu. Die gute Nachricht ist, dass einige dieser Ideen in der einen oder anderen Form bereits im Kongress und in den Gesetzgebungen der Bundesstaaten Fuß fassen. Wir heben bestimmte Gesetzestexte hervor, die unseren Empfehlungen in diesem Dokument entsprechen, und wir ermutigen unsere gewählten Vertreter auf Landes- und Bundesebene, diese umgehend zu berücksichtigen.
Microsoft bietet diese Empfehlungen an, um zum dringend benötigten Dialog über die Gefahren synthetischer KI-Medien beizutragen. Die Umsetzung eines dieser Vorschläge erfordert grundsätzlich einen gesamtgesellschaftlichen Ansatz. Es ist zwar unerlässlich, dass die Technologiebranche mit am Tisch sitzt, aber sie muss dies mit Bescheidenheit und einer Neigung zum Handeln tun. Microsoft begrüßt zusätzliche Ideen von Interessengruppen aus dem gesamten digitalen Ökosystem, um Schäden durch synthetische Inhalte zu bekämpfen. Letztendlich besteht die Gefahr nicht darin, dass wir zu schnell voranschreiten, sondern dass wir zu langsam oder gar nicht vorankommen. 



Schreibe einen Kommentar