Эксперт предупредил о риске негативных последствий решений, принятых ИИ | «Красный Север»
0°C

Общество

Эксперт предупредил о риске негативных последствий решений, принятых ИИ

IT-эксперт Гамула предупредил о рисках принятия решений ИИ

Отсутствие морали у ИИ создает риски негативных последствий. Современная версия ИИ еще не способна сформировать собственные ценности и этические нормы, поэтому ее действия базируются исключительно на предоставленных ей фактах и алгоритмах, созданных людьми, рассказал РИА «Новости» заместитель директора Федерального института цифровой трансформации в сфере образования Андрей Гамула.


Пока мы можем говорить лишь о технических инструментах, но никак не о полноценном сознании, подчеркнул эксперт. По его словам, даже наиболее совершенные модели остаются зависимыми от внешнего влияния и неспособны брать на себя ответственность за собственные выводы и рекомендации.

Он добавил, что единственным разумным существом на Земле остается человек.

«Даже самый сложный алгоритм всегда будет действовать на основании фактов и постулатов, заложенных в него извне. Искусственный интеллект сейчас не имеет ни ценностей, ни морали, и потому решения, принятые им, могут нести самые печальные последствия», — отметил Гамула.

Ноябрьск стал финалистом конкурса «Умный город» и был признан лучшим по внедрению IT-технологий в Уральском федеральном округе. Теперь ямальский город будет бороться за победу, и в этом ему могут помочь северяне, отдав свои голоса за южные ворота ЯНАО.


0

0

0

0

0

0



Темы

Технологии, Искусственный интеллект, Безопасность, Ученые