Neue Tools zielen darauf ab, Künstler vor KI zu schützen
HeimHeim > Blog > Neue Tools zielen darauf ab, Künstler vor KI zu schützen

Neue Tools zielen darauf ab, Künstler vor KI zu schützen

Dec 23, 2023

Wahrung der Integrität der Kunst.

Der Aufstieg von KI-Kunstwerkzeugen droht, menschliche Künstler arbeitslos zu machen, und viele KI-Modelle werden ohne deren Zustimmung auf der Arbeit menschlicher Künstler im Internet trainiert. Tools wie Glaze werden jedoch entwickelt, um KI-Kunstwerkzeuge auszutricksen.

Glaze wurde von Informatikern an der University of Chicago entwickelt und nutzt maschinelle Lernalgorithmen, um Kunstwerke/Bilder digital zu verschleiern oder zu verbergen, sodass die Versuche von KI-Modellen, die Bilder zu verstehen, vereitelt werden.

Beispielsweise kann ein Künstler ein Bild seines Ölgemäldes hochladen, das durch Glaze bearbeitet wurde. Dies führt dazu, dass das KI-Modell das Gemälde als eine Art Kohlezeichnung erkennt, obwohl es für das menschliche Auge eindeutig ein Ölgemälde ist.

Mit diesem Tool können Künstler ein digitales Bild ihres Kunstwerks aufnehmen, es durch Glaze laufen lassen und „anschließend sicher sein, dass dieses Kunstwerk jetzt für ein KI-Modell ganz anders aussehen wird als für einen Menschen“, so Professor Ben Zhao Der Informatiker an der University of Chicago und einer der führenden Forscher des Glaze-Projekts sagte gegenüber CNN.

Laut Zhao wurde der erste Prototyp von Glaze im März 2023 veröffentlicht und hat bereits die Marke von einer Million Downloads überschritten. Anfang des Monats wurde auch eine kostenlose Version des Tools veröffentlicht.

Jon Lam, ein in Kalifornien lebender Künstler, gab an, dass er Glaze für alle Bilder seiner Kunstwerke verwendet, die er online teilt.

„Wir wissen, dass die Leute unsere hochauflösenden Arbeiten übernehmen und sie in Maschinen einspeisen, die im gleichen Raum, in dem wir arbeiten, konkurrieren“, erklärte Lam. „Jetzt müssen wir also etwas vorsichtiger sein und anfangen, darüber nachzudenken, wie wir uns schützen können.“

Eveline Fröhlich, eine bildende Künstlerin aus Stuttgart, Deutschland, sprach auch darüber, wie Glaze dazu beigetragen hat, Künstler im Zeitalter der KI zu schützen.

„Es gab uns eine Möglichkeit, uns zu wehren“, erklärte Fröhlich. „Bis zu diesem Zeitpunkt fühlten sich viele von uns in dieser Situation so hilflos, weil es keinen wirklich guten Weg gab, uns davor zu schützen, also war das wirklich der Fall.“ Das erste, was mir persönlich bewusst gemacht hat: Ja, es hat Sinn, zurückzudrängen.“

Obwohl Glaze einige der KI-bezogenen Probleme lösen kann, mit denen Künstler heute konfrontiert sind, gibt Lam auch an, dass noch mehr getan werden muss, um zu regulieren, wie Technologieunternehmen Daten aus dem Internet für KI-Schulungen nutzen können.

„Im Moment erleben wir, dass Künstler so etwas wie Kanarienvögel im Kohlebergwerk sind“, sagte Lam. „Aber es wird wirklich jede Branche betreffen.“

Zhao hat außerdem erklärt, dass sein Team seit der Veröffentlichung von Glaze eine Flut von Nachrichten aus anderen Bereichen wie Romanautoren, Musikern, Synchronsprechern, Journalisten usw. erhalten hat, die sich nach einer Version von Glaze für ihren Bereich erkundigten.

Ein weiteres aktuelles Tool zum Schutz digitaler Bilder vor KI-Tools heißt PhotoGuard. Das Tool wurde von Hadi Salman, einem Forscher am Massachusetts Institute of Technology, zusammen mit MIT-Forschern vom Computer Science and Artificial Intelligence Laboratory entwickelt.

„Wir befinden uns im Zeitalter der Deepfakes“, sagte Salman gegenüber CNN. „Jeder kann jetzt Bilder und Videos manipulieren, um Menschen dazu zu bringen, tatsächlich etwas zu tun, was sie nicht tun.“

Der Prototyp der Technologie verleiht Bildern eine unsichtbare „Immunisierung“, die verhindert, dass KI-Modelle das Bild manipulieren oder verändern können. PhotoGuard funktioniert, indem es die Pixel des Bildes auf eine Weise anpasst, die für das menschliche Auge nicht wahrnehmbar ist. Ziel des Tools ist es, Fotos, die Menschen online hochladen, vor Manipulationen durch KI-Modelle zu schützen.

Das Tool verwendet zwei verschiedene „Angriffsmethoden“, um die Störungen zu erzeugen. Einer davon ist der „Encoder“-Angriff, der auf die latente Darstellung des Bildes im KI-Modell abzielt und dazu führt, dass das Modell das Bild als zufällige Einheit wahrnimmt. Der zweite ist der „Diffusions“-Angriff, der ein Zielbild definiert und die Störungen optimiert, um das Bild dem Ziel so ähnlich wie möglich zu machen.

„Aber diese unmerkliche Veränderung ist stark genug und sorgfältig ausgearbeitet, sodass sie tatsächlich alle Versuche dieser KI-Modelle, dieses Bild zu manipulieren, zunichte macht“, fügte Salman hinzu.