Генеративный анализ данных

Хиллари Клинтон: 2024 год – это «эпицентр» для искусственного интеллекта и выборов

Дата:

По мнению Хиллари Клинтон, когда речь заходит о возможном влиянии ИИ на выборы, 2024 год станет «эпицентром». 

Это будет год огромных выборов: более четырех миллиардов человек на этой планете будут иметь право голосовать в том или ином опросе. Ожидается, что появление генеративного ИИ во всей этой политике, по крайней мере, будет неизбежным в 2024 году; дипфейковые изображения, фальсифицированный звук, и подобные программно-придуманные вещи, скорее всего, будут использоваться в попытках повлиять на избирателей или оттолкнуть их, подорвать доверие людей к избирательным процессам и посеять разногласия.

Это не значит, что ничему нельзя доверять или что выборы будут сорваны. Вместо этого всем следует помнить об искусственном интеллекте, о том, на что он способен и как им можно злоупотреблять.

«Это год крупнейших выборов во всем мире с момента появления технологий искусственного интеллекта, таких как ChatGPT», — заявила бывший госсекретарь США, сенатор и первая леди на мероприятии Колумбийского университета в четверг, посвященном влиянию машинного обучения на глобальную экономику в 2024 году. выборы.

Клинтон, проигравшая Дональду Трампу в гонке за Белый дом в 2016 году, личный опыт с выборами попытки дезинформации и как технологии могут потенциально использоваться в гнусных целях.

Как сказала коллега по дискуссии Мария Ресса, журналистка, лауреат Нобелевской премии мира и соучредитель филиппинского новостного сайта Rappler: «Хиллари, вероятно, была эпицентром всех экспериментов».

Тем не менее, рассказы поддельные новости а подделанные изображения, размещенные в Facebook и других социальных сетях накануне выборов 2016 года, были «примитивными» по сравнению с «технологическим скачком», осуществленным генеративным искусственным интеллектом, сказала Клинтон.

«Клевретирующие видео о вас — это не весело — я вам это говорю», — добавила она. «Но иметь их таким образом, что… ты понятия не имеешь, правда это или нет. Это совершенно другой уровень угрозы».

Бывший министр внутренней безопасности Майкл Чертофф, который также был участником дискуссии на встрече в Колумбийском университете, сказал, что Интернет следует рассматривать как «область конфликта».

В мире, в котором мы ничему не можем доверять и не можем верить в правду, у нас не может быть демократии.

«Что искусственный интеллект позволяет информационному воину, так это иметь очень целенаправленную дезинформацию и в то же время делать это в масштабе, то есть вы делаете это с сотнями тысяч, а может быть, даже с миллионами людей», — объяснил Чертофф.

В предыдущих избирательных циклах, даже в тех, которые произошли всего десять лет назад, если политическая партия или общественный деятель отправляли в электронном виде «зажигательное» сообщение о кандидате или избранном должностном лице, это сообщение могло понравиться некоторым избирателям, но, скорее всего, оно также по его мнению, иметь неприятные последствия и оттолкнуть многих других. 

Сегодня, однако, сообщение «может быть адаптировано к каждому отдельному зрителю или слушателю, оно обращается только к ним и никто другой его не увидит», — сказал Чертофф. «Более того, вы можете отправить его под именем человека, которого получатель знает и которому доверяет, даже если это тоже ложь. Таким образом, у вас есть возможность действительно отправить тщательно продуманное сообщение, которое не окажет негативного влияния на других».

Кроме того, несмотря на то, что вмешательство в предыдущие демократические выборы по всему миру включало в себя попытки подорвать доверие или склонить голоса в пользу или против конкретного кандидата – например, в России случайное вмешательство в 2016 году и его Взлом и утечка информации о Макроне год спустя во Франции — угрозы выборов в этом году «еще более опасны», сказал Чертофф. 

Под этим он имеет в виду некую сверхзаряженную версию искусственного интеллекта. Большая ложь Дональд Трамп придумал и продвинул свою идею после того, как он проиграл президентские выборы 2020 года Джо Байдену, на которых проигравший ошибочно заявил, что его несправедливо лишили победы, что привело к штурму Конгресса 6 января сторонниками MAGA.

Что, если фальшивые изображения или видео проникнут в коллективное сознание — распространяются и усиливаются через социальные сети и видеоприложения — и пропагандируют такого рода ложное повествование, заставляя большое количество людей поддаться на него?

«Представьте, что люди начнут видеть видео или аудио, которые выглядят как убедительные примеры фальсифицированных выборов? Это все равно что поджечь бензин», — сказал Чертофф. «Мы могли бы провести еще одно 6 января».

Это, добавил он, играет на руку России, Китаю и другим странам, стремящимся подорвать демократию и сеять общественный хаос. «В мире, в котором мы ничему не можем доверять и не можем верить в истину, у нас не может быть демократии».

Вместо того, чтобы беспокоиться о том, что люди будут обмануты дипфейками, Чертофф говорит, что он боится обратного: люди не поверят, что реальные изображения или аудио являются законными, потому что они предпочитают альтернативные реальности. 

«В мире, где людям рассказывают о дипфейках, говорят ли они, что все — дипфейк? Поэтому даже реальные доказательства плохого поведения должны быть отвергнуты», — сказал он. «И тогда это действительно дает автократам и коррумпированным правительственным лидерам лицензию делать все, что они хотят». ®

Spot_img

Последняя разведка

Spot_img

Чат с нами

Всем привет! Могу я чем-нибудь помочь?