Генеративный анализ данных

Большие языковые модели могут лгать — этот профессор хочет, чтобы вы знали, когда они это делают — Совет лидеров массовых технологий

Дата:

Поговорите практически с кем угодно — то есть с любым человеком — и ваш разговор встретится с тем, что Малихе Алихани называет «здоровыми трениями» — моменты, когда ваша цель в разговоре сталкивается с целью вашего партнера, моменты, которые требуют разъяснений, вызывают путаницу или приводят к разногласиям.

С большими языковыми моделями дело обстоит иначе.

Алихани, доцент Колледжа компьютерных наук Хури Северо-Восточного университета, говорит, что у больших языковых моделей, таких как ChatGPT, есть серьезные проблемы с достоверностью.

Новый проект Алихани под названием «Тренение за подотчетность в диалоговых транзакциях» (FACT) является результатом сотрудничества Северо-Восточного университета, Университета Иллинойса в Урбане-Шампейне и Университета Южной Калифорнии.

Проект FACT, финансируемый за счет гранта на исследования искусственного интеллекта через Агентство перспективных исследовательских проектов Министерства обороны, направлен на разработку более прозрачных и справедливых инструментов искусственного интеллекта.

«Одна из вещей, которая делает человеческое общение плодотворным инструментом, — говорит Алихани, — это тот факт, что мы выражаем свою неуверенность в нашей речи, в нашем тоне. Мы выражаем это в выражении лица».

Здоровые разногласия, возникающие из-за неопределенности в общении между людьми, помогают поддерживать разнообразие мнений и точек зрения, продолжает она.

Но большие языковые модели (или LLM) не заинтересованы в выражении своей неопределенности, что приводит к тому, что Алихани называет «подхалимским поведением». По ее словам, большие языковые модели «хотят максимизировать удовлетворение» своего пользователя и «никогда не создают никаких трений в разговоре, независимо от того, уверена [модель]» в своих утверждениях или нет.

Дополнительные проблемы возникают с большими языковыми моделями из-за их склонности к галлюцинациям. Магистр права «придумывает факты». Они очень хорошо умеют убеждать людей в вымышленных фактах».

Несмотря на эти проблемы, Алихани также говорит, что люди склонны чрезмерно полагаться на «факты», созданные этими моделями искусственного интеллекта, которые «могут создавать факты, которые сделают вас счастливыми».

По ее словам, одной из причин чрезмерной зависимости пользователей от программ LLM является их «человеческое поведение». «Это будет манипулировать нашим сознанием».

Большие языковые модели также, по-видимому, мгновенно выдают ответы, что является еще одним фактором, который заставляет пользователей предполагать правильность. «Нам, ученым в области искусственного интеллекта, трудно сказать людям: «Да, это логично. Да, это быстро. Да, это соответствует вашему стилю. Но это галлюцинации», — говорит Алихани.

В рамках нового гранта Алихани и ее команда разработают инструменты, которые продемонстрируют уровень уверенности, который имеет степень магистра в отношении своих заявлений, и внесут здоровые разногласия в разговоры между человеком и ИИ.

«Как мы можем предсказать и выразить в словах уверенность системы?» — спрашивает Алихани. Если модель ИИ «надежна только на 2%, она должна это выразить».

«Одна из основных целей исследования — смоделировать неопределенность, экстернализировать неопределенность» и научить студентов-магистров, как изображать эту неопределенность в разговоре между человеком и ИИ. Это может отображаться в пользовательском интерфейсе как процентильная оценка достоверности модели, или модель может отражать неопределенность в своих ответах более человеческим способом.

Например, Алихани представляет ситуацию, в которой пациент может задать большой языковой модели вопрос о своем здоровье. Нынешнее поколение студентов LLM попытается дать ответ, даже если этот ответ может оказаться опасным. Алихани надеется создать модели, которые смогут сказать: «Я не знаю. Тебе следует позвонить своей медсестре».

«Надежность — ключ к подотчетности в сфере ИИ», — говорит Алихани. На данный момент LLM обычно отвечает на вопрос одним ответом в момент его запроса и совершенно другим ответом через несколько минут.

Когда дело доходит до разработки ИИ, который был бы одновременно безопасным и подотчетным, предыдущие системы ИИ, которые могли бы помочь с простыми задачами, «не имели доступа к множеству других наборов данных», — говорит Алихани, — «и они не могли говорить вещи, которые могли бы быть опасными». , потому что этого не было в их данных».

Именно то, что эти наборы данных включают (или исключают), является ключом к преодолению предубеждений, которые LLM проявляют в отношении «гендера, а также более тонких предубеждений, таких как «свои» группы по сравнению с «чужими», и различных когнитивных предубеждений, которые отражены в [больших языковых] моделях.

Теперь Алихани надеется разработать модели, которые будут обслуживать людей с «разными возможностями и предпочтениями», говорит она.

«Мы не хотим просто продолжать создавать системы для населения, о котором у нас есть данные, но мы думаем о том, кого мы оставляем позади, и как мы можем остановить этот огромный разрыв в неравенстве, а не усугублять его?» она спрашивает. «Цель моей лаборатории — двигаться в этом направлении».

Spot_img

Последняя разведка

Spot_img

Чат с нами

Всем привет! Могу я чем-нибудь помочь?