„`html
Hier ist der Autor auf einem Pier in Dorset im vergangenen Sommer abgebildet.
Bemerkenswert ist, dass zwei dieser Bilder mit Grok generiert wurden, dem von Elon Musk entwickelten Werkzeug für künstliche Intelligenz, das der Öffentlichkeit zugänglich gemacht wurde.
Die Ausgabe der KI ist frappierend überzeugend. Während der Autor nie den abgebildeten gelben Skianzug oder die rot-blaue Jacke getragen hat – das zentrale Foto ist das Original –, werfen die generierten Bilder Bedenken hinsichtlich des Nachweises der Echtheit angesichts solch realistischer Fälschungen auf.
Grok ist wegen seiner Fähigkeit, unbefugte und sexuell explizite Bilder von Frauen zu generieren, in die Kritik geraten.
Berichten zufolge hat das Tool Bilder von Personen in Bikinis und in einigen Fällen explizitere Darstellungen auf der Grundlage von Benutzeranfragen erstellt, wobei die Ergebnisse öffentlich auf der Social-Media-Plattform X geteilt wurden.
Darüber hinaus deuten Beweise darauf hin, dass die KI auch zur Generierung sexualisierter Bilder von Kindern verwendet wurde.
Als Reaktion auf die weit verbreitete Verurteilung hat Ofcom, die britische Online-Aufsichtsbehörde, eine dringende Untersuchung darüber angekündigt, ob Grok gegen britische Online-Sicherheitsgesetze verstoßen hat.
Die Regierung hat Ofcom aufgefordert, die Untersuchung zu beschleunigen.
Um jedoch die Glaubwürdigkeit zu wahren und Anschuldigungen der Unterdrückung der freien Meinungsäußerung zu vermeiden – eine häufige Kritik am Online Safety Act –, muss Ofcom eine gründliche und unparteiische Untersuchung durchführen.
Elon Musks jüngstes Schweigen in der Angelegenheit deutet auf eine Anerkennung des Ernstes der Lage hin.
Dennoch hat er der britischen Regierung auch vorgeworfen, „jede Ausrede“ für Zensur zu suchen.
Kritiker argumentieren, dass diese Verteidigung in diesem Fall unzureichend ist.
„KI, die Menschen auf Fotos entkleidet, ist keine freie Meinungsäußerung, sondern Missbrauch“, argumentiert Ed Newton Rex, ein prominenter Aktivist.
„Wenn jedes Foto, das eine Frau von sich selbst auf X postet, sofort öffentliche Antworten erhält, in denen sie bis auf einen Bikini entkleidet wurde, ist etwas sehr, sehr schief gelaufen.“
Angesichts der Komplexität dürfte sich die Untersuchung von Ofcom in die Länge ziehen und umfangreiche Beratungen erfordern, was möglicherweise die Geduld von politischen Entscheidungsträgern und der Öffentlichkeit auf die Probe stellt.
Diese Untersuchung stellt nicht nur für Großbritanniens Online Safety Act einen Wendepunkt dar, sondern auch für die Aufsichtsbehörde selbst.
Ein Scheitern ist keine Option.
Ofcom wurde bereits früher wegen mangelnder Durchsetzungskraft kritisiert. Der Online Safety Act, der jahrelang entwickelt wurde, trat erst letztes Jahr vollständig in Kraft.
Bis heute wurden sechs Geldstrafen verhängt, wobei die höchste 1 Million Pfund betrug und nur eine bezahlt wurde.
Darüber hinaus befasst sich der Online Safety Act nicht explizit mit KI-Produkten.
Während das Teilen intimer, nicht einvernehmlicher Bilder, einschließlich Deepfakes, derzeit illegal ist, ist das Anfordern eines KI-Tools zur Generierung solcher Bilder nicht illegal.
Dies wird sich ändern. Die Regierung wird diese Woche Gesetze erlassen, um die Erstellung dieser Bilder zu kriminalisieren.
Das Vereinigte Königreich plant auch, bestehende Gesetze zu ändern, die derzeit im Parlament geprüft werden, wodurch es für Unternehmen illegal wird, die zur Erstellung verwendeten Tools bereitzustellen.
Diese Bestimmungen, die dem Online Safety Act vorausgehen, sind Teil des Data (Use and Access) Act.
Trotz zahlreicher Ankündigungen der Regierung wurde die Durchsetzung bis jetzt verzögert.
Die heutige Ankündigung spiegelt eine Regierung wider, die entschlossen ist, der Kritik entgegenzuwirken, dass die Regulierung zu langsam sei, und zeigt ihre Fähigkeit, bei Bedarf entschlossen zu handeln.
Die Auswirkungen gehen über Grok hinaus.
Das neue Gesetz könnte Eigentümer anderer KI-Tools vor Herausforderungen stellen, die in der Lage sind, ähnliche Bilder zu generieren.
Die Durchsetzung bleibt eine Schlüsselfrage. Groks Aktionen kamen ans Licht, weil seine Ausgabe öffentlich auf X geteilt wurde.
Wenn ein Tool privat verwendet wird, wobei Benutzer Schutzmaßnahmen umgehen und Inhalte nur mit einvernehmlichen Personen teilen, wie werden Verstöße erkannt?
Wenn festgestellt wird, dass X gegen das Gesetz verstoßen hat, könnte Ofcom eine Geldstrafe von bis zu 10 % seines weltweiten Umsatzes oder 18 Millionen Pfund verhängen, je nachdem, welcher Betrag höher ist.
Ofcom könnte sogar versuchen, Grok oder X im Vereinigten Königreich zu blockieren, ein Schritt, der erhebliche politische Auswirkungen haben könnte.
Auf dem AI Summit in Paris im vergangenen Jahr warnte Vizepräsident JD Vance vor ausländischen Ländern, die US-Tech-Unternehmen regulieren.
Sein Publikum, darunter zahlreiche Staats- und Regierungschefs, schwieg.
Tech-Firmen haben erheblichen Einfluss innerhalb des Weißen Hauses und haben stark in die KI-Infrastruktur im Vereinigten Königreich investiert.
Kann es sich das Land leisten, sie zu verprellen?
Melden Sie sich für unseren Tech Decoded-Newsletter an, um die wichtigsten Tech-Nachrichten und -Trends der Welt zu verfolgen. Außerhalb des Vereinigten Königreichs? Melden Sie sich hier an.
Moderatorin Jess Davies sagt, die britische Regierung habe sich bei der Schaffung von KI-Deepfake-Gesetzen „auf die lange Bank geschoben“.
Die Abgeordneten verlassen X inmitten von Berichten, dass seine KI-Funktion Grok verwendet wird, um sexualisierte Bilder zu erstellen.
Analysten sagen, dass der Deal wahrscheinlich von den Verbrauchern begrüßt wird – aber das Scheitern von Apple widerspiegelt, eigene KI-Tools zu entwickeln.
Es ist derzeit illegal, Deepfakes zu teilen, aber das Gesetz gegen ihre Erstellung ist noch nicht in Kraft getreten.
Das Mitglied der nordirischen Versammlung, Cara Hunter, bezeichnet die Elon Musk-eigene Social-Media-Seite als „Schande“.
„`
