생성 데이터 인텔리전스

대규모 언어 모델은 당신에게 거짓말을 할 수 있습니다 – 이 교수는 당신이 거짓말을 하는지 알기를 원합니다 – Mass Tech Leadership Council

시간

거의 모든 사람, 즉 인간이라면 누구나 대화를 나누면 대화에서 무엇을 만나게 될 것입니다. 말리헤 알리카니 대화에서 자신의 목표가 파트너의 목표와 충돌하는 순간, 설명이 필요한 순간, 혼란을 야기하거나 불일치로 이어지는 순간을 '건전한 마찰'이라고 부릅니다.

대규모 언어 모델에서는 그렇지 않습니다.

Northeastern University의 Khoury 컴퓨터 과학 대학 조교수인 Alikhani는 ChatGPT와 같은 대규모 언어 모델은 확실성에 심각한 문제가 있다고 말합니다.

FACT(Friction for Accountability in Conversational Transactions)라고 불리는 Alikhani의 새로운 프로젝트는 Northeastern University, University of Illinois Urbana-Champaign 및 University of Southern California 간의 협력입니다.

국방고등연구계획국(Defense Advanced Research Project Agency)을 통해 인공지능 탐사 보조금을 통해 자금을 지원받은 FACT 프로젝트는 보다 투명하고 공평한 인공지능 도구를 개발하는 것을 목표로 합니다.

Alikhani는 “인간의 의사소통을 유용한 도구로 만드는 것 중 하나는 말투와 어조에서 불확실성을 표현한다는 사실입니다. 우리는 그것을 표정에 담았습니다.”

인간 대 인간 의사소통의 불확실성으로 인해 발생하는 건전한 마찰은 다양한 의견과 관점을 유지하는 데 도움이 된다고 그녀는 계속 말합니다.

그러나 대규모 언어 모델(또는 LLM)은 불확실성을 표현하는 데 관심이 없기 때문에 Alikhani가 "아첨하는 행동"이라고 부르는 결과를 초래합니다. 그녀는 대규모 언어 모델은 사용자의 "만족도를 최대화하기를 원하며" "[모델이] 자신의 진술에 대해 확신을 갖고 있는지 여부에 관계없이 대화에 어떤 마찰도 일으키지 않습니다"라고 말합니다.

환각 경향으로 인해 대규모 언어 모델에서는 추가 문제가 발생합니다. LLM은 “사실을 구성합니다. 그들은 꾸며낸 사실로 사람들을 설득하는 데 매우 능숙합니다.”

이러한 문제에도 불구하고 Alikhani는 인간이 "당신을 행복하게 만들기 위해 사실을 구성할 수 있는" 인공 지능 모델에 의해 생성된 "사실"에 과도하게 의존하는 경향이 있다고 말합니다.

LLM에 대한 사용자의 과도한 의존에 기여하는 것 중 하나는 "인간과 같은 행동"이라고 그녀는 말합니다. "그것은 우리의 인지를 조작할 것이다."

또한 대규모 언어 모델은 응답을 즉각적으로 생성하는 것으로 보이며 이는 사용자가 정확성을 가정하게 만드는 또 다른 요소입니다. “우리 AI 과학자들이 사람들에게 '그래, 일관성이 있어'라고 말하는 것은 어렵습니다. 예, 빠릅니다. 예, 귀하의 스타일에 맞춰 조정되고 있습니다. 하지만 그것은 환각을 불러일으킵니다.'라고 Alikhani는 말합니다.

새로운 보조금에 따라 Alikhani와 그녀의 팀은 LLM이 발언에 대해 갖고 있는 확실성 수준을 보여주고 인간-AI ​​대화에 건전한 마찰을 도입하는 도구를 설계할 것입니다.

"시스템의 신뢰도를 어떻게 예측하고 말로 표현할 수 있습니까?" 알리카니가 묻습니다. AI 모델의 신뢰도가 2%에 불과하다면 이를 외부화해야 합니다.

“연구의 주요 목표 중 하나는 불확실성을 모델링하고 불확실성을 외부화하는 것입니다.” LLM에게 인간-AI ​​대화에서 불확실성을 묘사하는 방법을 가르치는 것입니다. 이는 모델 확실성에 대한 백분위수 점수로 사용자 인터페이스에 표시될 수도 있고, 모델이 보다 인간과 유사한 방식으로 응답의 불확실성을 반영할 수도 있습니다.

예를 들어, Alikhani는 환자가 대규모 언어 모델에 자신의 건강에 관해 질문하는 상황을 상상합니다. 현재 세대의 LLM은 답변이 위험한 것으로 판명되더라도 답변을 제공하려고 노력할 것입니다. 알리카니는 “'모르겠어요. 간호사에게 전화해야 해요.'”

"견고함은 AI 책임의 핵심입니다."라고 Alikhani는 말합니다. 현재 LLM이 질문 시에는 하나의 답변으로 응답하고 몇 분 후에는 완전히 다른 답변으로 응답하는 것이 일반적입니다.

안전하고 책임감 있는 AI를 설계하는 데 있어 간단한 작업에 도움이 될 수 있는 이전 AI 시스템은 "다른 많은 데이터 세트에 액세스할 수 없었습니다"라고 Alikhani는 말합니다. "그리고 위험할 수 있는 말을 할 수 없었습니다. , 데이터에 없었기 때문입니다.”

이러한 데이터 세트에 정확히 무엇이 포함되거나 제외되는지가 LLM이 "성별에 대해 표시하는 편견뿐만 아니라 내부 그룹과 외부 그룹 및 [대규모 언어] 모델에 반영되는 다양한 인지적 편견과 같은 미묘한 편견"을 극복하는 데 중요합니다.

이제 Alikhani는 “다양한 여유와 선호도”를 가진 사람들에게 서비스를 제공하는 모델을 디자인하기를 희망합니다.

"우리는 데이터가 있는 인구를 위한 시스템을 계속 구축하고 싶지는 않지만, 우리가 남겨두고 있는 사람이 누구인지, 그리고 이 엄청난 불평등 격차를 악화시키는 대신 막을 수 있는 방법은 무엇인지 생각합니다." 그녀는 묻는다. “제 연구실의 목표는 그런 방향으로 나아가는 것입니다.”

spot_img

최신 인텔리전스

spot_img