Двойное лицо искусственного интеллекта: неочевидные угрозы для человечества

Оцените материал
(0 голосов)

15/02/2024

Сегодня нам доступны технологии, которые еще несколько десятилетий назад можно было встретить исключительно на страницах фантастических книг. Все это кажется очень полезным и безопасным и в правильных руках так и есть, однако мы редко задумываемся о неочевидных угрозах, которые для нас несет ИИ.

Нам кажется, что сервисы на основе ИИ упрощают жизнь, упорядочивают работу, помогают в создании собственных проектов. Ведь когда у нас не хватает денег на нужного специалиста — можно использовать нейросеть, которая поможет с переводом текста, написанием сюжета, созданием картинки или иллюстрации, видео, озвучиванием и тому подобное. Все это прекрасно звучит, но нужно знать и о несколько иной реальности.

Очевидные угрозы

Проблема ИИ гораздо серьезнее, чем принято считать. В то время как специалисты размышляют об автоматизации и вероятной потере рабочих мест людьми в далеком, или не очень далеком будущем, ИИ уже сегодня забирает работу миллионов людей. А популярность его ежедневно растет.

Кроме этого мы уже сталкиваемся с новым видом мошенников, которые могут представлять опасность даже для целых государств. И, конечно же ИИ может использоваться как оружие, например, пропаганда. Это могут быть не только фейки, связанные с конкретным лицом, но и искажение мнения общества или группы людей. Вариантов множество, от ложных высказываний до дипфейков способных поставить под угрозу репутацию, или важное политическое решение.



Что такое ИИ и как его распознать

Перед тем как знакомится с новыми технологиями, нужно узнать чем же на самом деле они являются, на что способны и как работают.

Нейросеть — это тип машинного обучения, при котором компьютерная программа имитирует работу человеческого мозга. Это искусственный интеллект (ИИ) в основе которого алгоритм, который глубоко изучает определенную тему и способен обучаться на определенной выборке данных. Они способны искать закономерности в неструктурированных данных и решать определенные задачи. То есть изучает полученный материал (труды человека, идеи, стиль и прочее), после чего создают нечто подобное на основе оригинала. Изучает, учится и, копируя оригинал, создает новый продукт.

Распознать работу нейросетей сегодня, довольно просто. Если это изображение человека, нужно внимательно смотреть на лицо, волосы, руки и глаза. Лицо может иметь заметные отличия от реального человека, волосы могут иметь странный вид, руки — неправильную анатомию, а глаза могут казаться не живыми.

Это также может быть странный фон, знакомые предметы, необычно выглядящие, животные необычного цвета и прочее. Еще одной проблемой ИИ является идеальный свет. На такой картинке всегда очень хорошо видны главные объекты. Это не только четкость самого изображения, но и освещение, которое имеет такой вид, как будто это фрагмент из фильма.

В других ситуациях свет может в одном фрагменте фотографии отличаться от другого. Или же просто может выглядеть неестественно. Также на изображениях, сгенерированных нейросетью, могут появляться заметные швы, резкие переходы, объекты, которые сливаются в одну форму.

Угроза для людей и рабочих мест

Говоря о новых технологиях, не стоит забывать и о рисках для людей, а точнее для профессий. Ведь все мы помним появление станков, заводов и дальнейшее сокращение работников, которые остались без своей работы. Это привело к серьезным изменениям, однако нынешняя ситуация сильно отличается.

Начнем с того, что промышленная революция имела негативные последствия только для людей, которые выполняли не очень сложные задачи. Где не нужно было слишком много думать или воплощать в жизнь творческие идеи. Исчезновение таких профессий не имело особого негативного эффекта для общества. Потому что товар становился только доступнее, быстрее, появилось удобство использования привычных вещей. С нынешней ситуацией все иначе. Риск исчезновения нависает над очень большим количеством профессий — эффект на себе ощутит практически каждый житель планеты.

Компания OpenAI, которая создала чат-бота ChatGPT, провела исследование, какие профессии в зоне риска. Вот перечень занятостей, что оказался под прямой угрозой уже в ближайшие годы:

— Математики,
— Специалисты по расчету налогов,
— Финансовые аналитики,
— Писатели и авторы,
— Веб-дизайнеры и дизайнеры цифровых интерфейсов,
— Переводчики,
— Репортеры и журналисты,
— Инженеры.

И это еще не весь перечень. И не стоит забывать о том факте, что технологии развиваются без остановки. В будущем полноценный искусственный интеллект сможет заменить человека практически в любом деле. Ведь он быстрее «мыслит» и обучается в самых разных сферах и все это в очень короткий промежуток времени. Кроме того, он очень быстро повышает качество и может работать без перерыва. Это делает человека неконкурентоспособным.



Опасность для государств

Говоря об опасности «новых инструментов», нельзя забывать и об угрозе государств в частности и Украины сегодня. Мошенничество всегда использовали не только против обычных граждан, но и против государств. Раньше для того, чтобы кого-то обмануть, нужно было придумать правдоподобную историю, в которую можно было поверить, а потом как-то ее распространить. Сегодня для этого есть немало различных программ, нейросетей и Интернет. Все это может помочь преступнику осуществить задуманное.

Если говорить именно о пропаганде, то это может быть создание голосовых сообщений, фото, видео и других фейков. Разнообразие и качество материала, который можно создать с помощью ИИ уже сегодня, поражает. Конечно, все это может помочь в повседневной работе, однако следует помнить, что доступ к таким инструментам практически повсеместный и они гарантированно будут задействованы против нас самих.

Кроме того, доступность ИИ инструментов позволяет практически каждому создать и распространить пропаганду в социальных сетях. Качество такого контента у многих вызовет сомнения, но всегда найдется тот, кто поверит и распространит пропаганду дальше. Однако это не финал развития подобных технологий и их возможностей. Они дальше будут развиваться и совершенствоваться, и наступит время, когда фейк будет визуально не отличаться от правды. Но всегда есть варианты проверки подобного материала. Например, внимательно изучить увиденное, проверить источник, найти официальное подтверждение. Это касается любого фейка.

И конечно же это далеко не финал развития подобных технологий и их возможностей. Они будут становиться все более качественными и универсальными — совершенствоваться, и наступит время, когда фейк будет визуально не отличаться от правды.

Но всегда будет вариант проверки подобного материала. Например, внимательно изучить увиденное, проверить источник, найти официальное подтверждение. Это касается любого фейка.

Источник: 24tv.ua
Фото: WWW

Прочитано 1637 раз
На заседании Совета глав государств СНГ подписан ряд документов
В г. Москва 8 октября на заседании Совета глав государств…
Садыр Жапаров выступил на заседании Совета глав государств СНГ в Москве
Президент Кыргызской Республики Садыр Жапаров сегодня, 8 октября, выступил на…
БРИКС — фундамент нового мира. Кыргызстану очень важно не упустить свой шанс
Процесс формирования многополярной системы приближается к важной вехе. 22 –…
Мэрия столицы дала ответы на вопросы о государственном флаге КР
Накануне в городе Бишкек в социальных сетях активно начали распространять…