30. 11. 2025

INFOKURÝR

INFORMACE Z DOMOVA I ZE SVĚTA

Obrázky sexuálního zneužívání dětí nalezené v databázi používané k výcviku generátorů obrázků AI

  • Studie zjistila, že soubor dat používaný k výcviku generátorů obrázků AI obsahuje obrázky sexuálního zneužívání dětí.
  • Zjištění posilují obavy, že nástroje umělé inteligence by mohly spustit vlnu obsahu generovaného umělou inteligencí o sexuálním zneužívání dětí.
  • Databáze LAION byla nyní přepnuta do režimu offline, zatímco její tvůrci odstraňují snímky.

Datový soubor používaný k výcviku generátorů obrázků AI obsahuje podle nové zprávy tisíce obrázků podezřelých ze sexuálního zneužívání dětí.

Vyšetřování Centra kybernetické politiky Stanfordské univerzity zjistilo, že databáze LAION-5B používaná k trénování několika generátorů obrázků AI, včetně Stable Diffusion 1.5, dřívější verze modelu AI od Stability AI, obsahovala více než 3 200 obrázků podezřelých Contained. zneužívání dětí.

Bylo potvrzeno, že něco málo přes 1 000 z těchto obrázků je materiálem týkajícím se sexuálního zneužívání dětí. Zpráva varuje, že tyto obrázky v datové sadě by mohly umožnit generativním nástrojům umělé inteligence vytvářet nový obsah týkající se zneužívání dětí na základě těchto dat.

LAION-5B je rozsáhlý veřejný archiv obsahující přibližně pět miliard obrázků z otevřeného internetu.

Používá ho řada společností s umělou inteligencí, které vyžadují obrovské množství dat k trénování generativních modelů umělé inteligence, které dokážou generovat nové obrázky během několika sekund.

Odborníci již dlouho varují, že generátory obrázků AI by mohly rozpoutat tsunami ultrarealistických obrázků AI generovaných sexuálně zneužívanými dětmi. Internet Watch Foundation (IWF) varuje, že takové obrázky jsou již na Dark Webu rozšířené.

Mezitím britské organizace pro online bezpečnost vyzvaly k „urychlené akci“ proti dětem ve škole pomocí generátorů obrázků AI k vytvoření urážlivého obsahu od svých vrstevníků.

Aplikace umělé inteligence, které používají podobnou technologii ke „svlékání“ žen na fotografiích tím, že na nich vytvářejí falešné nahé obrázky, jsou podle údajů z grafiky také stále oblíbenější.

Stable Diffusion je nejoblíbenější model používaný v databázi LAION. Nástroj vyvinutý britskou společností Stability AI se od svého uvedení v roce 2022 stal jedním z nejpoužívanějších a nejoblíbenějších generátorů obrázků.

Mluvčí německé neziskové organizace LAION, která za souborem dat stojí, řekl Bloombergu, že skupina dočasně odstraňuje své datové soubory z internetu, aby je očistila od nelegálního obsahu.

Mluvčí Stability AI pro Business Insider řekl, že společnost zavedla filtry, které uživatelům brání ve vytváření nelegálního obsahu pomocí Stable Diffusion, a modely Stability AI byly trénovány pouze na filtrované podmnožině LAION-5B.

V loňském roce společnost vydala Stable Diffusion 2.0, který byl také trénován na podmnožině dat LAION-5B, ale obsahuje přísnější kontroly pro sexuálně explicitní obsah. Na internetu je však stále dostupná verze 1.5, která také generuje explicitní obsah.

Mluvčí řekl, že Stable Diffusion 1.5 byl vydán AI video startup RunwayML a ne Stability AI. Runway však Bloombergu řekl, že šlo o spolupráci mezi oběma společnostmi.

LAION-400M, dřívější verzi databáze 5B, o které vědci ze Stanfordu tvrdili, že obsahuje „pornografické obrázky, rasové nadávky a škodlivé sociální stereotypy“, použil Google k trénování rané verze svého generátoru převodu textu na obrázek, Imagen. Google nyní přestal používat datové sady LAION.

BI požádala LAION o další komentář, ale nedostala okamžitou odpověď.

 

Sdílet: