Generativ dataintelligens

Nogen hjælper endelig AI-modeller med at forstå dem med talehandicap

Dato:

Boffins ved University of Illinois Urbana-Champaign (UIUC) i USA arbejder sammen med det sædvanlige internet-superkorps for ideelt set at forbedre AI-stemmegenkendelse for mennesker med handicap.

Talegenkendelsessoftware har ofte svært ved at behandle tale for personer med tunge accenter og klarer sig endnu dårligere for personer med talehandicap, da deres stemmer normalt ikke er repræsenteret godt eller slet ikke i træningsdatasæt. 

Taletilgængelighedsprojektet, der blev lanceret i mandags og støttet af Amazon, Apple, Google, Meta og Microsoft, samt nonprofitorganisationer, har til formål at gøre talegenkendelsesmodeller mere effektive for alle. "For mange af os er tale og kommunikation ubesværet," fortalte Clarion Mendes, en klinisk professor i tale- og hørevidenskab ved UIUC, der arbejder på projektet. Registret.

"Der er dog millioner af mennesker, for hvem kommunikation ikke er ubesværet. Det er en daglig kamp. Ved at forene vores indsats mod et fælles mål om at forbedre taletilgængeligheden for personer med talehandicap eller -forskelle, forbedrer vi ikke kun teknologien – vi forbedrer livskvaliteten og fremmer uafhængighed."

Forskere vil fokusere på at opnå forskellige lyddata fra mennesker, der er ramt af forskellige medicinske lidelser, der påvirker tale, såsom Lou Gehrigs sygdom eller amyotrofisk lateral sklerose (ALS), Parkinsons, cerebral parese og Downs syndrom, der taler engelsk. Frivillige vil blive betalt for at optage lydprøver, som vil blive brugt til at skabe et stort datasæt til at træne AI-modeller til kommercielle og forskningsmæssige applikationer.

Hvis der er, eller har været, projekter, der ligner denne indsats, er det fantastisk, selvom denne skiller sig ud for sin støtte fra dem, der laver nutidens AI-stemmeassistenter og lignende.

Industripartnere, der støtter Taletilgængelighedsprojektet, finansierer projektet i mindst to år og vil arbejde sammen med akademikere for at finde ud af, hvordan de nuværende talegenkendelsesmodeller kan forbedres.

"Gennem at arbejde direkte med personer med taleforskelle og handicap, via fokusgrupper og vores fortalervirksomhedspartnere, vil vi blive rustet til at bestemme styrkerne og begrænsningerne ved nuværende automatiske talegenkendelsessystemer og behovet for at udvikle nye systemer," sagde Mendes.

Holdet vil arbejde sammen med Davis Phinney Foundation og Team Gleason, to non-profitorganisationer for at indsamle taledata fra personer med ALS og Parkinsons sygdom i starten, før de udvider til at støtte andre typer handicap. 

"Muligheden for at kommunikere og betjene enheder med tale er afgørende for alle, der interagerer med teknologi eller den digitale økonomi i dag. Talegrænseflader bør være tilgængelige for alle, og det inkluderer mennesker med handicap,” sagde Mark Hasegawa-Johnson, UIUC-professor i elektro- og computerteknik, der leder projektet.

"Denne opgave har været svær, fordi den kræver en masse infrastruktur, ideelt set den slags, der kan understøttes af førende teknologivirksomheder, så vi har skabt et unikt tværfagligt team med ekspertise inden for lingvistik, tale, AI, sikkerhed og privatliv for at hjælpe vi tager denne vigtige udfordring op.” ®

spot_img

Seneste efterretninger

spot_img

Chat med os

Hej! Hvordan kan jeg hjælpe dig?