Generativní datová inteligence

Google, Meta, OpenAI se spojily s dalšími průmyslovými giganty proti AI snímkům zneužívání dětí – dešifrovat

Datum:

V rámci boje proti šíření materiálů pro sexuální zneužívání dětí (CSAM) se koalice špičkových vývojářů generativní umělé inteligence – včetně Googlu, Meta a OpenAI – zavázala, že bude kolem nově vznikající technologie prosazovat mantinely.

Skupinu spojily dvě neziskové organizace: dětská technologická skupina Thorn a All Tech is Human sídlící v New Yorku. Thorn, dříve známý jako DNA Foundation, založili v roce 2012 herci Demi Moore a Ashton Kutcher.

Kolektivní závazek byl oznámen v úterý spolu s novým Thornova zpráva obhajování zásady „bezpečnosti již od návrhu“ v generativním vývoji umělé inteligence, která by zabránila vytváření materiálů pro sexuální zneužívání dětí (CSAM) v průběhu celého životního cyklu modelu umělé inteligence.

„Vyzýváme všechny společnosti, které vyvíjejí, nasazují, udržují a používají generativní technologie a produkty umělé inteligence, aby se zavázaly přijmout tyto principy Safety by Design a prokázaly své odhodlání předcházet vytváření a šíření CSAM, AIG-CSAM a dalších sexuálních aktů s dětmi. zneužívání a vykořisťování,“ Trn uvedl v prohlášení.

AIG-CSAM je CSAM generovaný umělou inteligencí, jehož vytvoření může být relativně snadné.

Obrázek ukazuje, jak umělá inteligence může deformovat obrázek.
Obrázek: Thorn

Thorn se vyvíjí nástroje a prostředky zaměřené na ochranu dětí před sexuálním zneužíváním a vykořisťováním. Ve své zprávě o dopadu z roku 2022 organizace uvedla, že bylo nalezeno více než 824,466 104 souborů obsahujících materiál o zneužívání dětí. V loňském roce společnost Thorn oznámila, že jen v USA bylo nahlášeno více než XNUMX milionů souborů s podezřením na CSAM.

Hluboce falešná dětská pornografie, která je již na internetu problémem, prudce vzrostla poté, co se generativní modely umělé inteligence staly veřejně dostupnými, přičemž se na nich šířily samostatné modely umělé inteligence, které nepotřebují cloudové služby. tmavý web fóra.

Generativní AI, řekl Thorn, nyní usnadňuje vytváření objemů obsahu než kdykoli předtím. Jediný dětský predátor by mohl potenciálně vytvořit obrovské objemy materiálu pro sexuální zneužívání dětí (CSAM), včetně úpravy původních obrázků a videí do nového obsahu.

„Příliv AIG-CSAM představuje značná rizika pro již zdaněný ekosystém bezpečnosti dětí, zhoršuje problémy, jimž čelí orgány činné v trestním řízení při identifikaci a záchraně stávajících obětí zneužívání, a zvyšuje novou viktimizaci více dětí,“ poznamenává Thorn.

Thornova zpráva nastiňuje řadu principů, kterými by se vývojáři generativní umělé inteligence řídili, aby zabránili použití jejich technologie k vytváření dětské pornografie, včetně odpovědného získávání školení. datových sad, začleňující zpětnovazební smyčky a strategie zátěžového testování, využívající historii obsahu nebo „provenience“ s ohledem na nepřátelské zneužití a odpovědné hostování příslušných modelů umělé inteligence.

Mezi další podepisující slib patří Microsoft, antropický, Mistral AI, Amazonka, Stabilita AI, Civit AI, a Metafyzická, z nichž každý dnes vydává samostatná prohlášení.

„Součástí našeho étosu v Metaphysic je odpovědný vývoj ve světě umělé inteligence, správně, je to o posílení, ale je to o odpovědnosti,“ řekl marketingový ředitel Metaphysic Alejandro Lopez. Dešifrovat. „Rychle si uvědomujeme, že začít a rozvíjet to znamená doslova chránit ty nejzranitelnější v naší společnosti, což jsou děti, a bohužel i nejtemnější konec této technologie, která se používá pro materiály týkající se sexuálního zneužívání dětí ve formě hluboké falešné pornografie. , to se stalo."

Zahájen v 2021, Metafyzická se dostal do popředí v loňském roce poté, co bylo odhaleno, že několik hollywoodských hvězd, včetně Toma Hankse, Octavie Spencer a Anne Hathawayové, používalo technologii Metaphysic Pro k digitalizaci charakteristik jejich podobizny ve snaze udržet si vlastnictví vlastností nezbytných pro trénování modelu umělé inteligence. .

OpenAI odmítla tuto iniciativu dále komentovat, místo toho poskytla Dešifrovat Veřejné prohlášení vedoucího oddělení bezpečnosti dětí Chelsea Carlson.

„Hluboce nám záleží na bezpečnosti a zodpovědném používání našich nástrojů, a proto jsme do ChatGPT a DALL-E zabudovali silné zábradlí a bezpečnostní opatření,“ řekl Carlson v prohlášení. prohlášení. „Jsme odhodláni spolupracovat se společností Thorn, All Tech is Human a širší technickou komunitou, abychom prosazovali principy Safety by Design a pokračovali v naší práci na zmírňování potenciálních škod způsobených dětem.“

Dešifrovat oslovil ostatní členy koalice, ale okamžitě se neozval.

„Ve Meta jsme strávili více než deset let prací na zajištění bezpečnosti lidí online. Za tu dobu jsme vyvinuli řadu nástrojů a funkcí, které pomáhají předcházet potenciálním škodám a bojovat s nimi – a jak se predátoři přizpůsobili, aby se pokusili uniknout našim ochranám, pokračovali jsme v přizpůsobování i my,“ meta uvedl v připraveném prohlášení.

„Ve všech našich produktech proaktivně zjišťujeme a odstraňujeme materiál CSAE pomocí kombinace technologie porovnávání hash, klasifikátorů umělé inteligence a lidských recenzí,“ GoogleViceprezidentka pro řešení důvěry a bezpečnosti Susan Jasper napsala v příspěvku. „Naše zásady a ochrany jsou navrženy tak, aby detekovaly všechny druhy CSAE, včetně CSAM generovaných umělou inteligencí. Když identifikujeme vykořisťující obsah, odstraníme jej a podnikneme příslušné kroky, které mohou zahrnovat nahlášení NCMEC.“

V říjnu britská hlídací skupina, the Nadace Internet Watch Foundationvaroval, že materiál o zneužívání dětí generovaný umělou inteligencí můžepřemoci' internetu.

Upravil Ryan Ozawa.

Mějte přehled o krypto novinkách, dostávejte denní aktualizace do vaší schránky.

spot_img

Nejnovější inteligence

spot_img

piš si s námi

Ahoj! Jak vám mohu pomoci?