На первом глобальном саммите об искусственном интеллекте обсудили потенциальные угрозы

Оцените материал
(0 голосов)

07/11/2023

Первый глобальный саммит, посвященный безопасному использованию искусственного интеллекта, стартовал в Британии. В течение двух дней технологические гиганты, эксперты и политики будут обсуждать основы регулирования и безопасного использования технологий искусственного интеллекта.

Первый саммит такого рода проходит в Блетчли-парке в графстве Бакингемшир, где в годы Второй мировой войны размещался центр дешифровки. Именно тут командой Алана Тьюринга была раскрыта тайна кода «Энигма», который использовали немецкие шифровальные машины.

По случайному совпадению именно в первый день работы саммита один из старейших словарей английского языка Collins признал AI - аббревиатура, обозначающая «искусственный интеллект», словом 2023 года.

По сообщению Collins, употребление этого слова по сравнению с прошлым годом выросло в четыре раза.

«Мы знаем, что на ИИ в этом году был большой акцент в том смысле, что он развивался и быстро стал вездесущим, будучи встроенным в наши жизни в имейлы, стриминги и другие повседневные технологии, которые некогда казались футуристическими», — сказал директор издательства, выпускающего словарь.



В первый день работы саммита было подписано «первое в мире соглашение» о том, как управлять наиболее рискованными формами искусственного интеллекта. Основное внимание в нем уделено так называемому «передовому ИИ» (frontier AI) — это, в понимании участников саммита, высоко развитые формы этой технологии с пока неизвестными возможностями.

Соглашение подписали также США, ЕС и Китай.

В саммите также принял участие Илон Маск, владелец компаний Tesla, X и созданной минувшим летом x.Al — компании, занимающейся вопросами искусственного интеллекта. Накануне встречи он вновь выступил с предупреждением, что ИИ может привести к вымиранию человечества.

Правда, другие участники саммита высказались в более спокойном духе: по их мнению, следует воздержаться от спекуляций на тему маловероятных угроз в будущем, а вместо этого сосредоточить внимание на потенциальных рисках, которые искусственный интеллект несет уже сегодня — например, угрозы некоторым профессиям или предвзятость в тех или иных вопросах, которую ИИ вырабатывает в результате своего обучения.

На конференции также прозвучало заранее записанное заявление британского короля Карла III, в котором он назвал развитие передового ИИ «не менее важным, чем открытие электричества».

Правительство Великобритании заявило, что в так называемой «декларации Блетчли», подписанной участниками саммита, 28 стран согласились с тем, что необходимо срочно понять и коллективно управлять потенциальными рисками, связанными с ИИ.

Отношения между Китаем и Западом сегодня зачастую оставляют желать лучшего, но заместитель министра науки и технологий КНР У Чжаохуэй заявил на конференции, что Китай стремится к духу открытости в области ИИ.

«Мы призываем к глобальному сотрудничеству, чтобы поделиться знаниями и сделать технологии ИИ общедоступными, — сказал он делегатам, — Китай готов расширять диалог и общение по вопросам безопасности ИИ со всеми сторонами».

Министр торговли США Джина Раймондо заявила, что по итогам саммита в США будет создан собственный Институт безопасности ИИ.

Министр технологий Великобритании Мишель Донелан, председательствовавшая на открытии саммита, объявила, что следующий саммит пройдет через полгода в виртуальном режиме, и его организатором станет Южная Корея. Лично делегаты встретятся через год во Франции.



Истребить человечество — спасти планету?

Илон Маск, ранее не раз предупреждавший об угрозе искусственного интеллекта, выступил в подкасте комика Джо Рогана и заявил, что некоторые люди могут использовать ИИ для защиты планеты, уничтожив человечество.

«Если начать думать, что люди — это плохо, то естественным выводом будет то, что люди должны вымереть, — сказал он, — Если ИИ будет запрограммирован сторонниками вымирания, то его полезной функцией будет вымирание человечества... Они даже не подумают, что это плохо».

В марте этого года Маск наряду с другими ведущими фигурами в области разработки ИИ подписал открытое письмо, в котором предлагалось сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.

«Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски — управляемыми», — говорилось в письме.

Правда, уже в апреле стало известно, что Маск зарегистрировал компанию X.AI Corp., которая должна была заниматься вопросами искусственного интеллекта с целью «познания реальности».

Многие эксперты считают опасения за судьбу человечества в связи с развитием ИИ преувеличенными.



Источник: bbc.com
Фото: WWW
Центральную Азию хотят сделать стороной конфликта на Украине?
03/03/2024 Спустя два года после начала российской Специальной военной операции…
Взаимодействие в интеграционных объединениях обсудили главы МИД Кыргызстана и РФ
03/03/2024 Главы МИД Кыргызстана и России обсудили взаимодействие в интеграционных…
Ветряные мельницы вместо АЭС: вечный холод готова принести Южная Корея в страны Центральной Азии
03/03/2024 Президент Кыргызстана подписал закон о ратификации соглашения между правительством…
В столице состоялось мероприятие по сохранению национальных традиций
03/03/2024В центральной библиотеке города Бишкек в целях реализации указа президента…