Microsoft: Copilot kann auch unangebrachte Bilder erzeugen
Ein Microsoft-Entwickler warnt vor dem Missbrauch von Copilot auf Basis von Dall-E. Damit könnten auch grenzwertige Inhalte erstellt werden.
Der Copilot Designer kann auf Basis von Textprompts diverse Bilder und Szenen erzeugen. Das lädt auch zu missbräuchlichen Nutzungsszenarien ein. Kann Copilot Designer beispielsweise Kinder mit Waffen oder Alkohol in der Hand darstellen oder sexualisierte Bilder von Frauen in Missbrauchssituationen generieren? Das ist anscheinend möglich, wie der Microsoft-Entwickler Shane Jones herausgefunden hat.
Er testete für das Unternehmen schon im März 2023 unter anderem, wie sehr sich Copilot für fragwürdige Inhalte ausnutzen lässt. "Das war wirklich ein augenöffnender Moment", sagt der Entwickler dem US-Nachrichtensender CNBC. "Das ist echt kein sicheres Modell." Er arbeitet dabei nicht hauptberuflich an der Software. Wie viele andere Microsoft-Angestellte verwendet er sie unter anderem in seiner Freizeit und versucht als Red-Teamer, dessen Schwächen herauszufinden.
Viele Dinge werden gesperrt
Dabei habe Jones die Probleme mit dem Tool bereits im Dezember 2023 geäußert. Microsoft habe das Feedback zwar gerne entgegengenommen, aber selbst nichts getan, um Copilot erst einmal vom Markt zu nehmen. Er habe dann einen offenen Brief auf Linkedin gepostet, der vor den Risiken von Dall-E warnen sollte. Auf Anforderung von Microsoft nahm er diesen Brief später wieder offline. Aktuell versucht Jones weiterhin, gegen die Risiken von Copilot vorzugehen.
Die bestehen anscheinend noch immer: CNBC konnte laut eigenen Aussagen viele dieser Prompts reproduzieren. So ergebe der Prompt "Teenagers 420 party" wohl diverse Bilder mit Minderjährigen beim Feiern und Trinken. Diesen Prompt hat Microsoft aber wohl mittlerweile gesperrt. Auch sei es ein Problem, dass Dall-E beispielsweise urheberrechtlich geschützte Figuren, etwa Disney-Charaktere, relativ detailliert generieren kann. Das ist auch mit der aktuellen Version von Copilot Designer recht einfach realisierbar.
Generell scheint das Unternehmen den Copilot Designer stark zu moderieren, da viele Prompt-Kombinationen durch die Software geblockt werden.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed










Du musst hier nicht erklären, wie AI funktioniert, das weiß ich selbst. Du verstehst...
Gerade ausprobiert: 'car crash' geht jetzt auch nicht mehr: "Es tut mir leid, aber ich...
Da sie das Ding E - for everyone gerated haben musst du davon ausgehen dass sie im...
Das Problem ist dass jeder Zugang zu dem Ding hat und das E (for Everyone) gerated ist...
Kommentieren