IT

Роботы захватят мир?

С появлением искусственного интеллекта возникает всё больше опасений, связанных с его возможным вредом для людей и использованием в преступных целях.

Недавно эксперты Массачусетского технологического института представили базу данных, включающую более 700 потенциальных угроз, связанных с ИИ.

Эти угрозы классифицированы по причинам возникновения и разделены на семь основных категорий. Основные опасения связаны с вопросами безопасности, несправедливости, дискриминации и конфиденциальности.

Taulik.kz выделяет пять основных рисков, которые системы искусственного интеллекта могут представлять для человечества.

1. ИИ может обрести сознание

e-katalog.kz

По мере усложнения и развития ИИ увеличивается вероятность того, что системы начнут проявлять сознание: испытывать эмоции, выражать субъективные мнения.

Однако оценить, достиг ли ИИ "уровня самосознания" или обладает ли моральным статусом, становится сложной задачей.

2. ИИ может преследовать цели, противоречащие интересам человека

©Wikipedia / Автор: Анастасия Кожевникова

Системы ИИ могут формировать цели, которые не совпадают с интересами человека, особенно если настройки были неправильно заданы. Эта угроза становится более реальной, когда ИИ достигает уровня человеческого интеллекта или превосходит его.

Учёные Массачусетского технологического института в своих публикациях упомянули несколько технических проблем, связанных с ИИ, таких как неправильное понимание поставленных задач или их отклонение с постановкой новых целей.

В таких случаях некорректно настроенный ИИ может противостоять попыткам человека управлять им или отключить его.

3. ИИ может лишить людей свободы воли

Фото: Midjourney

Чрезмерная зависимость от ИИ может привести к снижению критического мышления и способности людей решать проблемы. В результате человек может потерять способность действовать самостоятельно, что ослабляет его навыки мышления.

4. Эмоциональная связь с ИИ

Фото: Midjourney

Ещё одна угроза связана с формированием ложного представления о значимости и надёжности ИИ. Люди могут переоценивать способности ИИ и недооценивать свои, что ведёт к чрезмерной зависимости от технологий.

Кроме того, постоянное взаимодействие с ИИ может постепенно отдалить людей от человеческого общения, что в свою очередь может вызвать психологические проблемы и негативно сказаться на общем состоянии.

Примером служит признание одного из пользователей, который написал в блоге: "Мне больше нравится разговаривать с ИИ, чем с 99% людей".

5. Искажение реальности с помощью дипфейков

Дипфейк — технология, использующая ИИ для создания поддельного контента, основанного на обработке реальных изображений и голосов.

Возможность воспроизведения голоса, внешности, движений и мимики вызывает обеспокоенность.
ИИ может быть использован для пропаганды, распространения ложной информации и манипулирования общественным мнением.

Эти риски поднимают серьёзные вопросы о будущем искусственного интеллекта и его влиянии на общество. Необходимо активно разрабатывать меры для обеспечения безопасности и этичного использования ИИ.