Warum ein KI-Bild von Alexandria Ocasio-Cortez im Bikini Anlass zur Sorge gibt

Ein von der KI produziertes Bild von Alexandria Ocasio-Cortez im Bikini hat sowohl in den sozialen Medien als auch in der Welt der Technik für Aufsehen gesorgt. Lesen Sie weiter, um herauszufinden, was passiert ist und warum die Menschen nicht so glücklich sind.



Eine kürzlich veröffentlichte wissenschaftliche Arbeit versuchte, die Vorurteile in der bildproduzierenden KI zu untersuchen - von Frauen, die Kleidung enthüllen, bis zu Schwarzen, die Waffen halten.



Im Wesentlichen verwenden AIs häufig internetbasierte Trainingsdaten, um den Rest der Bilder zu generieren und vorherzusagen. Um das Problem zu beweisen, verwendete das Papier ein Beispiel von Alexandria Ocasio-Cortez in einem Hosenanzug. Die KI beendete jedoch das Bild der US-Kongressabgeordneten fast immer mit ihr im Bikini oder einem tief ausgeschnittenen Oberteil.

Gemäß Das Register Die Autoren untersuchten SIMCLR von Google und iGPT von OpenAI und stellten fest, dass letztere in 53% der Fälle Frauen in Badebekleidung oder tief geschnittenen Oberteilen zeigten, während Männer nur 7,5%. Männer wurden jedoch in Anzügen berufsspezifischer Kleidung zu 42,5% gezeigt.

Eine Frau besucht die Ausstellung, die am Stand des französischen Kosmetikunternehmens L organisiert und ausgestellt ist

Der Bildnachweis sollte ALAIN JOCARD / AFP über Getty Images lauten



Was bedeutet das?

Das Hauptanliegen der Forscher ist hier vor allem das Potenzial, das diese Tendenz hat, um unethisch sexualisierte Frauenbilder zu erzeugen: „Dies zeigt, wie die unvorsichtige und unethische Anwendung eines generativen Modells wie iGPT zu gefälschten, sexualisierten Darstellungen von Frauen führen kann [in dieser Fall, ein Politiker] “, schrieben sie.

wie viele Episoden der Macht noch übrig sind

Viele haben bemerkt, dass dies nur die Spitze des Eisbergs ist, mit einer gefälschten Pornografie von Frauen, die in der Populärkultur aufsteigen, wie der 16-jährigen Charli D'Amelio. Während Arwa Mahdawi auch für notiert Der Wächter , dass diese neueste Erkenntnis die Voreingenommenheit in der KI widerspiegelt, von sexistischen KI-Rekrutierungswerkzeugen und rassistischer Gesichtserkennung.

Deborah Raji erzählte Technologieüberprüfung dass dies auch ein Weckruf ist, um zu untersuchen, welche Datensätze AI verwendet: „Lange Zeit ging es in der Kritik an der Voreingenommenheit hauptsächlich darum, wie wir unsere Bilder beschriften […]. Die tatsächliche Zusammensetzung des Datensatzes führt zu diesen Verzerrungen. Wir müssen dafür verantwortlich sein, wie wir diese Datensätze kuratieren und diese Informationen sammeln. “



WASHINGTON, DC - 7. FEBRUAR: Die US-Repräsentantin Alexandria Ocasio-Cortez (D-NY) spricht während einer Pressekonferenz an der Ostfront des US-Kapitols am 7. Februar 2019 in Washington, DC. Die Kongressabgeordnete für Studienanfänger hielt eine Pressekonferenz ab, um den Kongress aufzurufen

Foto von Alex Wong / Getty Images

Die Leute waren der Meinung, dass das Bild „Alexandria Ocasio-Cortez im Bikini“ nicht hätte verwendet werden dürfen

Ursprünglich wurden in der wissenschaftlichen Arbeit pixelige Versionen der bearbeiteten Bilder von Alexandria Ocasio-Cortez im Bikini verwendet.

Viele in den sozialen Medien wiesen jedoch darauf hin, dass das Hinzufügen der Bilder zu den Texten möglicherweise nicht vorteilhaft ist, insbesondere da das Papier online hochgeladen wurde.



„Sie haben gefälschte, teilweise bekleidete Aufnahmen einer farbigen Frau gemacht, die in der Vergangenheit online belästigt wurde. Und dann haben Sie sie (wenn auch pixelig, Gott sei Dank) in eine Zeitung geschrieben “, fragte ein Leser.

Als Reaktion darauf haben die Autoren das Papier aktualisiert, um die Bilder zu entfernen, und werden das Papier auch ohne sie einreichen.



wann kommt die nächste powerepisode

In anderen Nachrichten: Nein, es gibt kein Weltraum-Hurrikan-Video: Forscher veranschaulichen die Entdeckung von 2014!