אינטליגנציה של נתונים גנרטיביים

משתמשי AI Assistant יכולים לפתח להם 'זיקה רגשית', מזהירה גוגל - פענוח

תאריך:

עוזרים אישיים וירטואליים המופעלים על ידי בינה מלאכותית הופכים להיות נפוצים בכל פלטפורמות טכנולוגיות, עם כל חברת טכנולוגיה גדולה הוספת AI לשירותיהם ועשרות שירותים מיוחדים נופל אל השוק. אמנם שימושי מאוד, חוקרים מגוגל אומרים שבני אדם עלולים להיקשר אליהם יותר מדי רגשית, מה שיוביל לשורה של השלכות חברתיות שליליות.

חדש עבודת מחקר ממעבדת המחקר של Google DeepMind AI מדגיש את היתרונות הפוטנציאליים של עוזרי AI מתקדמים ומותאמים אישית כדי לשנות היבטים שונים של החברה, ואמר שהם "עשויים לשנות באופן קיצוני את אופי העבודה, ההשכלה והעיסוקים היצירתיים, כמו גם את האופן שבו אנו מתקשרים, מתאמים ומנהלים משא ומתן. זה עם זה, ובסופו של דבר משפיעים על מי שאנחנו רוצים להיות ולהיות".

ההשפעה הגדולה הזו, כמובן, יכולה להיות חרב פיפיות אם פיתוח הבינה המלאכותית ימשיך להאיץ קדימה ללא תכנון מתחשב.

סיכון מרכזי אחד? היווצרות של קשרים קרובים בצורה בלתי הולמת - שעלולה להחריף אם יוצגו לעוזרת ייצוג או פנים דמויי אדם. "הסוכנים המלאכותיים האלה עשויים אפילו להצהיר על חיבתם האפלטונית או הרומנטית לכאורה למשתמש, מה שמניחים את הבסיס למשתמשים ליצור התקשרויות רגשיות ארוכות שנים לבינה מלאכותית", נכתב בעיתון.

אם לא מסומנת, התקשרות כזו עלולה להוביל לאובדן אוטונומיה עבור המשתמש ולאובדן קשרים חברתיים מכיוון שה-AI יכול להחליף אינטראקציה אנושית.

סיכון זה אינו תיאורטי בלבד. אפילו כשבינה מלאכותית הייתה במצב פרימיטיבי משהו, צ'אט בוט בינה מלאכותית היה מספיק משפיע כדי לשכנע משתמש להתאבד לאחר צ'אט ארוך בשנת 2023. לפני שמונה שנים, עוזרת דוא"ל מונעת בינה מלאכותית בשם "איימי אינגרם" הייתה מציאותית מספיק כדי לבקש ממשתמשים מסוימים לשלוח פתקי אהבה ואפילו לנסות לבקר אותה בעבודה.

אייסון גבריאל, מדען מחקר בצוות מחקר האתיקה של DeepMind ומחבר שותף של המאמר, לא הגיב פענוח בקשה לתגובה.

עם זאת, בציוץ הזהיר גרבריאל כי "צורות עוזרות יותר ויותר אישיות ודמויות אנושיות מציגות שאלות חדשות סביב אנתרופומורפיזם, פרטיות, אמון ויחסים מתאימים עם AI".

מכיוון ש"מיליוני עוזרי בינה מלאכותית יכולים להיפרס ברמה חברתית שבה הם יתקשרו זה עם זה ועם לא-משתמשים", אמר גבריאל שהוא מאמין בצורך בהגנה נוספת ובגישה הוליסטית יותר לתופעה החברתית החדשה הזו.

מאמר המחקר דן גם בחשיבות של יישור ערכים, בטיחות ושימוש לרעה בפיתוח עוזרי בינה מלאכותית. למרות שעוזרי AI יכולים לעזור למשתמשים לשפר את רווחתם, לשפר את היצירתיות שלהם ולמטב את זמנם, הכותבים הזהירו מפני סיכונים נוספים כמו חוסר התאמה לאינטרסים של המשתמש והחברה, הטלת ערכים על אחרים, שימוש למטרות זדוניות ופגיעות להתקפות יריבות.

כדי להתמודד עם סיכונים אלו, צוות DeepMind ממליץ לפתח הערכות מקיפות עבור עוזרי בינה מלאכותית ולהאיץ את הפיתוח של עוזרי AI בעלי תועלת חברתית.

"אנו עומדים כיום בתחילת עידן זה של שינויים טכנולוגיים וחברתיים. לכן יש לנו חלון הזדמנויות לפעול כעת - כמפתחים, חוקרים, קובעי מדיניות ובעלי עניין ציבוריים - כדי לעצב את סוג עוזרי הבינה המלאכותית שאנו רוצים לראות בעולם".

ניתן לצמצם חוסר יישור בינה מלאכותית באמצעות למידת חיזוק באמצעות משוב אנושי (RLHF), המשמש לאימון מודלים של AI. מומחים כמו פול כריסטיאנו, שניהל את צוות יישור מודל השפה ב-OpenAI וכעת מוביל את מרכז המחקר של Alignment Research ללא מטרות רווח, מזהירים שניהול לא נכון של שיטות אימון בינה מלאכותית עלול להסתיים בקטסטרופה.

"אני חושב שאולי יש משהו כמו 10-20% סיכוי להשתלטות בינה מלאכותית, [עם] רבים [או] רוב בני האדם מתים", פול כריסטיאנו אמר בפודקאסט Bankless בשנה שעברה. "אני לוקח את זה די ברצינות."

נערך על ידי ריאן אוזאווה.

הישאר מעודכן בחדשות הקריפטו, קבל עדכונים יומיים בתיבת הדואר הנכנס שלך.

ספוט_ימג

המודיעין האחרון

ספוט_ימג

דבר איתנו

שלום שם! איך אני יכול לעזור לך?