Generative Datenintelligenz

Nutzer von KI-Assistenten könnten eine „emotionale Bindung“ zu ihnen entwickeln, warnt Google – Decrypt

Datum:

Virtuelle persönliche Assistenten mit künstlicher Intelligenz sind auf allen Technologieplattformen und bei allen großen Technologieunternehmen allgegenwärtig KI hinzufügen zu ihren Diensten und Dutzenden von spezialisierte Dienstleistungen auf den Markt purzeln. Obwohl sie immens nützlich sind, sagen Forscher von Google, dass Menschen eine zu emotionale Bindung an sie entwickeln könnten, was zu einer Vielzahl negativer sozialer Konsequenzen führen könnte.

Neue Forschungsarbeit vom DeepMind AI-Forschungslabor von Google unterstreicht die potenziellen Vorteile fortschrittlicher, personalisierter KI-Assistenten für die Transformation verschiedener Aspekte der Gesellschaft und sagt, dass sie „die Art von Arbeit, Bildung und kreativen Aktivitäten sowie die Art und Weise, wie wir kommunizieren, koordinieren und verhandeln, radikal verändern könnten.“ miteinander und beeinflussen letztendlich, wer wir sein und werden wollen.“

Diese übergroßen Auswirkungen könnten natürlich ein zweischneidiges Schwert sein, wenn die KI-Entwicklung ohne sorgfältige Planung weiter voranschreitet.

Ein Hauptrisiko? Die Bildung unangemessen enger Bindungen – die sich verschlimmern könnte, wenn dem Assistenten eine menschenähnliche Darstellung oder ein menschenähnliches Gesicht präsentiert wird. „Diese künstlichen Agenten bekennen möglicherweise sogar ihre angebliche platonische oder romantische Zuneigung zum Benutzer und legen so den Grundstein dafür, dass Benutzer langjährige emotionale Bindungen zur KI aufbauen“, heißt es in dem Papier.

Unkontrolliert könnte eine solche Bindung zum Verlust der Autonomie des Nutzers und zum Verlust sozialer Bindungen führen, da die KI die menschliche Interaktion ersetzen könnte.

Dieses Risiko ist nicht rein theoretisch. Selbst als die KI noch in einem etwas primitiven Zustand war, war ein KI-Chatbot einflussreich genug, um dies zu erreichen einen Benutzer zum Selbstmord überreden nach einem langen Gespräch im Jahr 2023. Vor acht Jahren war eine KI-gestützte E-Mail-Assistentin namens „Amy Ingram“ realistisch genug, um einige Benutzer dazu zu veranlassen, Liebesbriefe und sogar Liebesbriefe zu senden Versuchen Sie, sie bei der Arbeit zu besuchen.

Iason Gabriel, ein Forschungswissenschaftler im Ethik-Forschungsteam von DeepMind und Co-Autor des Artikels, antwortete nicht darauf Entschlüsseln Bitte um Stellungnahme.

In einem Tweet warnte Garbriel jedoch, dass „immer persönlichere und menschenähnlichere Formen von Assistenten neue Fragen zu Anthropomorphismus, Privatsphäre, Vertrauen und angemessenen Beziehungen zur KI aufwerfen.“

Denn „Millionen von KI-Assistenten könnten auf gesellschaftlicher Ebene eingesetzt werden, wo sie miteinander und mit Nichtnutzern interagieren“, sagte Gabriel, er glaube an die Notwendigkeit weiterer Schutzmaßnahmen und eines ganzheitlicheren Ansatzes für dieses neue soziale Phänomen.

Das Forschungspapier diskutiert auch die Bedeutung von Werteausrichtung, Sicherheit und Missbrauch bei der Entwicklung von KI-Assistenten. Auch wenn KI-Assistenten den Nutzern helfen könnten, ihr Wohlbefinden zu verbessern, ihre Kreativität zu steigern und ihre Zeit zu optimieren, warnten die Autoren vor zusätzlichen Risiken wie einer Fehlausrichtung mit Nutzer- und gesellschaftlichen Interessen, der Auferlegung von Werten gegenüber anderen, der Nutzung für böswillige Zwecke und der Verletzlichkeit zu gegnerischen Angriffen.

Um diesen Risiken zu begegnen, empfiehlt das DeepMind-Team die Entwicklung umfassender Beurteilungen für KI-Assistenten und die Beschleunigung der Entwicklung sozial nützlicher KI-Assistenten.

„Wir stehen derzeit am Beginn dieser Ära des technologischen und gesellschaftlichen Wandels. Daher haben wir jetzt die Gelegenheit, als Entwickler, Forscher, politische Entscheidungsträger und öffentliche Interessenvertreter zu handeln und die Art von KI-Assistenten zu gestalten, die wir in der Welt sehen wollen.“

KI-Fehlausrichtungen können durch Reinforcement Learning Through Human Feedback (RLHF) gemildert werden, das zum Trainieren von KI-Modellen verwendet wird. Experten wie Paul Christiano, der das Sprachmodell-Alignment-Team bei OpenAI leitete und jetzt das gemeinnützige Alignment Research Center leitet, warnen davor, dass unsachgemäßes Management von KI-Trainingsmethoden dazu führen könnte in einer Katastrophe enden.

„Ich denke, die Wahrscheinlichkeit einer KI-Übernahme liegt bei etwa 10 bis 20 %, wenn viele oder die meisten Menschen sterben“, sagte Paul Christiano sagte im Bankless-Podcast letztes Jahr. „Ich nehme es sehr ernst.“

Herausgegeben von Ryan Ozawa.

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang.

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?