Кого нам бояться — искусственный интеллект или его создателей?

Оцените материал
(0 голосов)

25/03/2024



Генеральная Ассамблея ООН 21 марта впервые в истории единогласно проголосовала за принятие подготовленной более чем 100 странами резолюции по теме регулирования и обеспечения безопасности в сфере искусственного интеллекта (ИИ). Документ призывает всех создателей этой технологии ответственно подходить к разработке и запуску новых возможностей и искоренять проявления предвзятости и дискриминации в системах ИИ. О том, что такое сегодня ИИ и стоит ли его бояться, мы расскажем в очередной публикации.

Сегодня искусственный интеллект — один из основных трендов мирового научно-технического развития. Важность этой технологии признана во всех странах с развитой экономикой, где разрабатываются национальные программы по продвижению ИИ. Китай выделяется как главный игрок в данной области, он привлекает около 60% всех мировых инвестиций в исследования и разработку ИИ. Эксперты предсказывают, что к 2030 году применение ИИ способствует ускорению роста ВВП ведущих мировых держав в два раза и увеличит общемировой ВВП на 15 триллионов долларов, из которых Китаю будет принадлежать 7 триллионов, а США — 3,7 триллиона. Россия также стремится не отставать в этой гонке. В октябре 2019 года была принята национальная стратегия по развитию ИИ, разработанная Министерством цифрового развития, связи и массовых коммуникаций в сотрудничестве со Сбербанком. В рамках федерального проекта, одобренного в 2021 году для реализации этой стратегии, на развитие данной сферы из государственного бюджета выделено 24,1 миллиарда рублей, а из дополнительных источников — 5,1 миллиарда рублей.

Разработка ИИ во всем мире пока движется по двум ключевым направлениям: логическому и нейроморфному. Логический метод фокусируется на разработке систем, способных выполнять конкретные «умственные» задачи или ограниченный набор таких задач. В свою очередь, нейроморфный подход стремится к созданию систем, моделирующих функции человеческого мозга, амбициозно нацеленных на воспроизведение его искусственного эквивалента. Однако важно осознавать, что большинство современных достижений в области ИИ, включая те, что получили широкую известность, опираются не столько на увеличение «интеллектуальных» способностей машин, сколько на повышение их производительности. Это, в свою очередь, расширяет их способности к обработке больших объемов данных в более короткие сроки.

Возможно ли, чтобы компьютеры однажды достигли производительности, достаточной для создания компьютерного аналога человеческого мозга? Теоретически, да.

На сегодняшний день у нас есть общее понимание функционирования отдельных нейронов человеческого мозга, их взаимосвязей, а также процессов передачи сигналов между ними, что дает возможность для компьютерного воссоздания структуры человеческого мозга в целом. В 2018 году благодаря использованию на тот момент самого мощного в мире суперкомпьютера Sunway Taihulight, находящегося в Китае, было выполнено моделирование одной секунды деятельности 1% человеческого мозга. Этот процесс занял примерно четыре минуты времени работы суперкомпьютера. Исходя из этих данных, можно вывести, что для воссоздания полной активности мозга человека в реальном времени потребуется суперкомпьютер с такой вычислительной мощностью, что он будет потреблять около 15 гигаватт электроэнергии, что сравнимо с ежесуточным потреблением столицы России. Если соотносить этот прогноз с текущими тенденциям развития компьютерных технологий, то такой ИИ может появиться не раньше 2030 года.



Многие эксперты считают, что все попытки создания аналога человеческого мозга с помощью современных компьютерных технологий являются дорогой в никуда, потому что наш мозг функционирует по совершенно другим и до сих пор непонятным нам принципам. К тому же все чаще раздаются голоса людей, считающих ИИ огромной угрозой для всего человечества. Так, незадолго до смерти знаменитый английский ученый Стивен Хокинг сказал: «Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества». В 2023 году значительная группа научных работников и бизнесменов, в числе которых были Илон Маск и соучредитель Apple Стив Возняк, публично обратилась к лабораториям, занимающимся разработкой искусственного интеллекта, с предложением временно прекратить тренировку систем ИИ, превосходящих по мощности GPT-4, указывая на опасность потери контроля над такими технологиями.

Но что важно понимать в данной ситуации. Дело в том, что всё, сегодня называющееся искусственным интеллектом — это всего лишь компьютерные программы, созданные человеком. Компьютер сам по себе пока не способен к независимому принятию решений и не обладает автономной волей, но лишь выполняет инструкции, внедренные в него разработчиками. Следовательно, опасения, связанные с искусственным интеллектом, фактически схожи с боязнью любого программного обеспечения, миллионы экземпляров которого были созданы за годы существования компьютерной технологии. В действительности, внимание стоит уделять не самим программам, а их разработчикам, поскольку от их намерений и решений зависит, приведет ли использование той или иной программы к нежелательным последствиям.


Автор: Андрей Кирхин
Источник: rapsinews.ru
Фото: WWW

Закон, регулирующий использование искусственного интеллекта, появится в СНГ
20/04/2024Заседание Постоянной комиссии Межпарламентской Ассамблеи СНГ по науке и образованию…
В Бишкеке эксперты обсудили Закон об НПО, а также закрытие Фонда «Сорос — Кыргызстан»
20/04/2024 Президент Кыргызстана Садыр Жапаров подписал Закон «О внесении изменений…
Делегация КР во главе с Акылбеком Жапаровым посетила головной офис корпорации Apple Inc. в городе Сан-Франциско
20/04/2024 Делегация Кыргызской Республики во главе с председателем Кабинета министров…
Завершился официальный визит президента Кыргызстана Садыр Жапарова в Казахстан
20/04/2024Завершился официальный визит президента Кыргызской Республики Садыра Жапарова в г.…