Generativ dataintelligens

Store sprogmodeller kan lyve for dig - denne professor vil have, at du skal vide, hvornår de gør - Mass Tech Leadership Council

Dato:

Tal med næsten hvem som helst - alle mennesker, det vil sige - og din samtale vil støde på hvad Malihe Alihani kalder "sunde gnidninger," øjeblikke, hvor dit mål i samtalen støder op mod din partners, øjeblikke, der kræver afklaring, skaber forvirring eller fører til uenighed.

Sådan er det ikke med store sprogmodeller.

Alikhani, en assisterende professor ved Khoury College of Computer Sciences ved Northeastern University, siger, at store sprogmodeller som ChatGPT har et alvorligt problem med sikkerhed.

Alikhanis nye projekt, kaldet Friction for Accountability in Conversational Transactions (FACT), er et samarbejde mellem Northeastern University, University of Illinois Urbana-Champaign og University of Southern California.

FACT-projektet, som er finansieret gennem et tilskud til udforskning af kunstig intelligens gennem Defense Advanced Research Project Agency, har til formål at udvikle mere gennemsigtige og retfærdige værktøjer til kunstig intelligens.

"En af de ting, der gør menneskelig kommunikation til et frugtbart værktøj," siger Alikhani, "er det faktum, at vi repræsenterer vores usikkerhed i vores tale, i vores tonefald. Vi sætter det i vores ansigtsudtryk.”

De sunde gnidninger, der opstår af usikkerhed i menneske-til-menneske-kommunikation, er med til at opretholde en mangfoldighed af meninger og synspunkter, fortsætter hun.

Men store sprogmodeller (eller LLM'er) er ikke interesserede i at udtrykke deres usikkerhed, hvilket resulterer i, hvad Alikhani kalder "sykofantisk adfærd." Store sprogmodeller "ønsker at maksimere tilfredsheden" for deres bruger, siger hun, og "introducerer aldrig nogen friktion i samtalen, uanset om [modellen] er sikker" på sine udtalelser eller ej.

Yderligere problemer opstår med store sprogmodeller gennem deres tendens til at hallucinere. LLM'er "opfinder fakta. De er meget gode til at overtale folk om fakta, der er opdigtede.”

På trods af disse problemer siger Alikhani også, at mennesker er tilbøjelige til at stole for meget på "fakta" genereret af disse kunstige intelligensmodeller, som "kan finde på fakta for at gøre dig glad."

En del af det, der bidrager til brugerens overdreven afhængighed af LLM'er, er deres "menneskelignende adfærd," siger hun. "Det vil manipulere vores erkendelse."

Store sprogmodeller ser også ud til at producere deres svar øjeblikkeligt, en anden faktor, der får brugerne til at antage korrekthed. "Det er svært for os AI-forskere at fortælle folk, 'Ja, det er sammenhængende. Ja, det er hurtigt. Ja, det tuner ind i din stil. Men det hallucinerer," siger Alikhani.

Under deres nye bevilling vil Alikhani og hendes team designe værktøjer, der demonstrerer de niveauer af sikkerhed, en LLM har om en udtalelse, den fremsætter, og introducere sunde gnidninger i menneske-AI-samtaler.

"Hvordan kan vi forudsige og verbalisere tilliden til systemet?" spørger Alikhani. Hvis en AI-model er "kun 2% sikker, bør den eksternalisere det."

"Et af hovedmålene med forskningen er at modellere usikkerhed, at eksternalisere usikkerhed" og lære LLM'er at skildre denne usikkerhed i en menneske-AI-samtale. Dette kan forekomme i en brugers grænseflade som en percentilscore af modellens sikkerhed, eller modellen kan afspejle usikkerhed i dens svar på en mere menneskelignende måde.

For eksempel forestiller Alikhani sig en situation, hvor en patient kan stille en stor sprogmodel et spørgsmål om deres helbred. Den nuværende generation af LLM'er vil forsøge at give et svar, selvom det svar kan vise sig at være farligt. Alikhani håber at bygge modeller, der kan sige: "'Jeg ved det ikke. Du skal ringe til din sygeplejerske.'”

"Robusthed er nøglen til ansvarlighed i AI," siger Alikhani. I øjeblikket er det almindeligt, at en LLM svarer med ét svar på en forespørgsel på tidspunktet for spørgsmålet og et helt andet svar et par minutter senere.

Når det kommer til at designe AI, der er både sikkert og ansvarligt, havde tidligere AI-systemer, der kunne hjælpe med simple opgaver, "ikke adgang til en masse andre datasæt," siger Alikhani, "og de kunne ikke sige ting, der kunne være farlige , fordi det ikke var i deres data."

Præcis hvad disse datasæt inkluderer - eller udelukker - er nøglen til at overvinde de skævheder, LLM'er viser mod "køn, men også mere subtile skævheder, såsom in-versus out-grupper og forskellige kognitive skævheder, der afspejles i modeller i [stort sprog]."

Nu håber Alikhani at designe modeller, der servicerer mennesker med "forskellige muligheder og præferencer," siger hun.

"Vi ønsker ikke bare at blive ved med at bygge systemer til den befolkning, vi har data for, men vi tænker på, hvem vi efterlader, og hvordan kan vi stoppe denne enorme ulighedskløft i stedet for at gøre den værre?" spørger hun. "Målet med mit laboratorium er at bevæge sig i den retning."

spot_img

Seneste efterretninger

spot_img

Chat med os

Hej! Hvordan kan jeg hjælpe dig?