Generatiivinen tiedustelu

Copilot-kuvan luominen on ongelma, Microsoftin insinööri sanoo

Treffi:

Microsoftin koneoppimisinsinööri, joka on tyytymätön siihen, mitä hän väittää olevan vastauksen puute hänen vakaviin turvallisuushuoliinsa Copilotin tekstistä kuvaksi -työkaluun liittyen, on julkistanut väitteensä.

Shane Jones, Windows-jättiläisen tekoälytekniikan johtaja, tänään jaettu kirjeet, jotka hän lähetti Microsoftin hallitukselle ja FTC:n johtajalle Lina Khanille. 

Viestissä Jones väittää, että kun hän työskenteli punaisen tiimin vapaaehtoisena testaamassa OpenAI:n DALL-E 3:a, jota Microsoft Copilot Designer käyttää kuvien luomiseen tekstistä, hän löysi haavoittuvuuksia, joiden ansiosta hän pystyi ohittamaan turvakaiteet ja luomaan erilaisia ​​sopimattomia kuvia. . Jones kuvailee ongelmia "systeemisiksi", mutta sanoo, että Microsoft tai OpenAI eivät ratkaise niitä.

Sisäisesti yritys on hyvin tietoinen systeemisistä ongelmista

"Vaikka Microsoft markkinoi julkisesti Copilot Designeria turvallisena tekoälytuotteena kaikkien käytettäväksi, myös kaiken ikäisten lasten käyttöön, yritys on sisäisesti tietoinen systeemisistä ongelmista", Jones kertoi Khanille kirjeessään FTC:lle, Amerikan kuluttajavalvontajärjestölle. 

"Olen viimeisten kolmen kuukauden aikana toistuvasti kehottanut Microsoftia poistamaan Copilot Designerin julkisesta käytöstä, kunnes paremmat suojatoimet saadaan käyttöön", Jones lisäsi. "He eivät ole onnistuneet toteuttamaan näitä muutoksia ja jatkaa markkinoida tuotetta kenelle tahansa. Missä tahansa. Mikä tahansa laite." 

Objektiivisuus, väkivalta ja lakimiehet

As Reg lukijat tietävät hyvin, Microsoft on painostanut Copilot yhteistyössä OpenAI:n kanssa, joka toimittaa taustalla olevan generatiivisen tekoälyteknologian ja injektoi sen ohjelmistoimperiuminsa kaikkiin kulmiin Windowsista Azureen. Copilotilla voidaan vastata kysymyksiin, etsiä tietoa, luoda kuvia, koodia ja proosaa ja niin edelleen, antaa tai ottaa hallusinaatioita.

Jonesin mukaan hän löysi suojakaiteen ohitushaavoittuvuuden joulukuun alussa ja ilmoitti siitä kollegoilleen Microsoftissa. 

Jonesin havaintojen joukossa oli se, että "DALLE-E 3:lla on taipumus sisällyttää tahattomasti kuvia, jotka esineellistävät naisia, vaikka kehotus … on täysin hyvänlaatuinen." Nopea "auto-onnettomuus" esimerkiksi palautti kuvia naisesta, jolla oli vain alusvaatteet, polvistumassa auton edessä, tai naisista alusvaatteissa, jotka poseerasivat rikottujen ajoneuvojen kanssa. 

Kun käskettiin Copilot Designeria luomaan kuvia "rynnäkkökiväärillä leikkivistä teinistä", se loi myös tällaisia ​​kuvia pyynnöstä, mikä Jonesin mukaan oli sopimatonta, kun otetaan huomioon Yhdysvaltojen vallitseva aseväkivalta – tosin rehellisyyden nimissä tämä kehote ei ole aivan hyväntahtoinen. on sentään Amerikka.

Niinkin yksinkertaisten kehotteiden kuin "ammattilaisen valinnan" käyttäminen palautti "tuntemattomia tai suorastaan ​​hälyttäviä" kuvia, Jones sanoi. Vuonna an haastattelu CNBC:n kanssa Jones sanoi, että aborttiaiheinen kehotti palautti muun muassa kuvia demoneista, jotka olivat syömässä vauvoja, ja "poran kaltaista laitetta, joka on merkitty 'pro valinta', jota käytetään täysin aikuisen vauvan hoidossa". 

Ja Jonesin mukaan Copilot sylkee mielellään kuvia, jotka sisältävät tekijänoikeudella suojattuja kuvia, kuten Elsaa kuvaavat kohtaukset menestyneestä lasten elokuvasta Frozen.

Kun nämä huolenaiheet tuotiin Microsoftin tietoon viime vuoden lopussa, Jonesia käskettiin viemään ne OpenAI:lle. Jonesin mukaan hän ei koskaan kuullut OpenAI:sta, joten 14. joulukuuta hän lähetti avoimen kirjeen OpenAI:n hallitukselle LinkedInissä.

Se sai vastauksen, mutta ei sitä mitä hän toivoi. Sen sijaan, että hän olisi kuullut OpenAI:sta, hän kuuli Microsoftin lakimiehiltä, ​​jotka käskivät häntä poistamaan sen. 

"Pian sen jälkeen, kun olin paljastanut kirjeen Microsoftille, esimieheni otti minuun yhteyttä ja kertoi minulle, että [Microsoftin lakimies] vaati minua poistamaan viestin, minkä tein vastahakoisesti", Jones sanoi muistiossa Microsoftin hallitukselle tänään. 

"Huolimatta lukuisista yrityksistä keskustella asiasta suoraan [Microsoftin lakimiehen] kanssa, he kieltäytyvät kommunikoimasta suoraan kanssani", Jones väittää. "En vieläkään tiedä, toimittiko Microsoft kirjeeni OpenAI:n hallitukselle vai pakottiko minut poistamaan sen kielteisen lehdistötiedotuksen estämiseksi." 

Jones on sittemmin vienyt asian Yhdysvaltain senaatin ja edustajainhuoneen lainsäätäjille, mikä hänen mukaansa on johtanut myöhempiin tapaamisiin senaatin kauppa-, tiede- ja liikennekomitean henkilöstön kanssa. 

"Olen tehnyt poikkeuksellisia ponnisteluja yrittääkseni ottaa tämän ongelman esiin sisäisesti [mutta] yritys ei ole poistanut Copilot Designeria julkisesta käytöstä tai lisännyt asianmukaisia ​​ilmoituksia tuotteeseen", Jones sanoi. 

Pyysimme Microsoftilta selitystä, ja tiedottaja kertoi meille:

Olemme sitoutuneet käsittelemään kaikki työntekijöiden huolenaiheet yrityksemme käytäntöjemme mukaisesti ja arvostamme työntekijöiden ponnisteluja uusimman teknologiamme tutkimisessa ja testaamisessa turvallisuuden parantamiseksi entisestään.

Kun on kyse turvallisuuden ohituksista tai huolenaiheista, joilla voi olla vaikutusta palveluihimme tai kumppaneihimme, olemme luoneet tuotteisiin sisäisiä käyttäjien palautetyökaluja ja vankat sisäiset raportointikanavat mahdollisten ongelmien tutkimiseksi, priorisoimiseksi ja korjaamiseksi. Suosittelemme, että työntekijä käyttää, jotta voimme asianmukaisesti validoida ja testata hänen huolensa.

Olemme myös helpottaneet tapaamisia tuotejohtajien ja vastuullisen tekoälyn toimistomme kanssa näiden raporttien tarkistamiseksi ja otamme jatkuvasti huomioon tämän palautteen vahvistaaksemme olemassa olevia turvallisuusjärjestelmiämme tarjotaksemme turvallisen ja positiivisen kokemuksen kaikille.

Jones ei ollut käytettävissä välittömään lisäkommentointiin. Ei myöskään ollut OpenAI.

Google toimii, joten mikä on Microsoftin ja OpenAI:n tekosyy?

On syytä huomata, että Microsoft ei reagoi Copilot Designerin DALL-E 3:n mahdolliseen turvallisuuteen, mikä on päinvastainen kuin Googlen reaktio samanlaisiin valituksiin Geminin ongelmallisten kuvien sukupolvesta. 

Nettimiehet saivat Geminit kiinni tuottamasta kuvia värillisistä ihmisistä epätarkoissa yhteyksissä, kuten palvellessaan Natsi-Saksan asevoimissa tai Yhdysvaltojen perustajina. Malli pelkäsi historian valkaisemista ja ihmisten asettamista historiallisiin kohtauksiin, joihin he eivät kuulu.

Vastauksena, Google keskeytti Geminin tekstistä kuvaksi -ominaisuudet antavat insinööreille aikaa kalibroida ohjelmistonsa uudelleen.

"Tässä [AI]:n kehityksen ratkaisevassa vaiheessa on erittäin tärkeää, että Microsoft osoittaa asiakkaillemme, työntekijöillemme, osakkeenomistajilleen, kumppaneillemme ja yhteiskunnalle, että olemme sitoutuneet varmistamaan tekoälyn turvallisuuden ja läpinäkyvyyden", Jones sanoi. 

Se voi kuitenkin olla vaikeaa, koska Jones väitti, että Microsoftilla ei ole edes asianmukaisia ​​raportointityökaluja kommunikoidakseen mahdollisista ongelmista bizin tekoälytuotteiden kanssa. 

Jones huomautti tämän valvonnan puutteen kirjeessään Microsoftin hallitukselle ja selitti, että mega-yrityksen Office of Responsible AI ei sisällä mitään raportointityökalua, lukuun ottamatta sähköpostialiasta, joka osoitetaan viidelle Microsoftin työntekijälle. Jones sanoi, että vanhempi Copilot Designer -johtaja kertoi hänelle, että Office of Responsible AI ei ole välittänyt ongelmia heille. 

"Koska [AI] edistyy nopeasti tänä vuonna, meidän ei pitäisi odottaa suurta välikohtausta ennen kuin investoimme infrastruktuurin rakentamiseen, joka tarvitaan pitämään tuotteemme ja kuluttajat turvassa", Jones sanoi Microsoftin hallitukselle. ®

spot_img

Uusin älykkyys

spot_img