Генеративный анализ данных

Решение Японии вызвало дискуссию об искусственном интеллекте и законах об авторском праве

Дата:

В среду высокопоставленный чиновник ЕС заявил, что Европейский союз и Соединенные Штаты планируют разработать добровольный кодекс поведения в отношении искусственного интеллекта в течение нескольких недель. Этот шаг сделан на фоне опасений по поводу потенциальных рисков ИИ для человечества, а также на фоне растущих призывов к регулированию.

Вице-президент Европейской комиссии Маргрете Вестагер заявила, что Соединенным Штатам и Европейскому союзу следует продвигать добровольный кодекс поведения для ИИ, чтобы обеспечить гарантии по мере разработки нового законодательства.

Она выступила на заседании Совета по торговле и технологиям ЕС-США (TTC), которым совместно руководят американские и европейские официальные лица. По ее словам, любые новые правила в отношении ИИ вступят в силу как минимум через три года. Поэтому ожидается, что код восполнит этот пробел.

Читайте также: Глава антимонопольного законодательства ЕС усиливает риторику о Метавселенной и регулировании ИИ

Революционная технология искусственного интеллекта

«Нам нужен подотчетный искусственный интеллект. Генеративный ИИ полностью меняет правила игры», — сказал Вестагер после заседания совета в Швеции, сообщает AP. переправу.

«Все знают, что это следующая мощная вещь. Поэтому в ближайшие недели мы выдвинем проект кодекса поведения ИИ».

Она сказала, что официальные лица будут собирать отзывы от компаний, разрабатывающих и использующих ИИ, и других игроков отрасли. Вестагер надеется, что «очень, очень скоро индустрия добровольно согласится принять окончательное предложение».

Госсекретарь США Энтони Блинкен сказал, что он провел «интенсивную и продуктивную» дискуссию по ИИ со своими европейскими коллегами на форуме TTC.

«[Совет] должен сыграть важную роль в содействии установлению добровольных кодексов поведения, которые были бы открыты для всех стран-единомышленников», — сказал Блинкен.

ИИ может положить конец человеческой расе

Развитие ИИ вызвало опасения по поводу его потенциального использования во вредных целях, таких как дискриминация, слежка и ядерная война. Также были опасения по поводу того, что ИИ может создать массовую безработицу.

Как MetaNews ранее переправу, одной из основных проблем является то, что эксперты назвали «проблемой выравнивания». По сути, проблема связана с трудностью обеспечения соответствия целей и задач системы ИИ целям и задачам ее создателей-людей.

Критики говорят, что опасность заключается в том, что система ИИ может развивать свои собственные цели и задачи, противоречащие целям и задачам ее создателей, что приводит к катастрофическим результатам. Во вторник около 350 ученых и экспертов подписали заявление призывая к тому, чтобы регулирование ИИ стало глобальным приоритетом.

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в заявлении.

Заявление исходит от некоммерческого Центра безопасности ИИ из Сан-Франциско. Его подписали руководители Google DeepMind и создатели ChatGPT OpenAI, а также другие крупные фигуры в области исследований искусственного интеллекта.

В мае лидеры так называемых стран G7 встретились в Японии и призвали к разработке технических стандартов, чтобы ИИ оставался «заслуживающим доверия». Они призвали к международному диалогу по вопросам управления ИИ, авторского права, прозрачности и угрозы дезинформации.

По VestagerНужны конкретные договоренности, а не просто общие заявления. Она предположила, что 27 стран ЕС и США могут помочь в этом процессе.

«Если мы вдвоем вместе с близкими друзьями возьмем на себя инициативу, я думаю, мы сможем протолкнуть что-то, что сделает нас всех более довольными тем фактом, что генеративный ИИ уже существует в мире и развивается с невероятной скоростью», — сказала она.

Всемирная забота

США и Европейский Союз — не единственные юрисдикции, работающие над регулированием ИИ. Администрация киберпространства Китая уже выпустила новые правила, запрещающие использование контента, созданного искусственным интеллектом, для распространения».поддельные новости".

В Австралии министр промышленности и науки Эд Хусик заявил, что скоро будет введено регулирование.

«В сообществе есть ощущение, что они хотят быть уверенными… что технология не опережает сама себя и не используется таким образом, который создает неудобства или риск для людей», — сказал он. согласно на сообщения местных СМИ.

«Вот почему [федеральное правительство] хочет провести следующие реформы, которые могут дать людям уверенность в том, что мы ограничиваем риски и максимизируем выгоды».

Spot_img

Последняя разведка

Spot_img

Чат с нами

Всем привет! Могу я чем-нибудь помочь?