Общество
Эксперт предупредил о риске негативных последствий решений, принятых ИИ
IT-эксперт Гамула предупредил о рисках принятия решений ИИ
Отсутствие морали у ИИ создает риски негативных последствий. Современная версия ИИ еще не способна сформировать собственные ценности и этические нормы, поэтому ее действия базируются исключительно на предоставленных ей фактах и алгоритмах, созданных людьми, рассказал РИА «Новости» заместитель директора Федерального института цифровой трансформации в сфере образования Андрей Гамула.
Пока мы можем говорить лишь о технических инструментах, но никак не о полноценном сознании, подчеркнул эксперт. По его словам, даже наиболее совершенные модели остаются зависимыми от внешнего влияния и неспособны брать на себя ответственность за собственные выводы и рекомендации.
Он добавил, что единственным разумным существом на Земле остается человек.
«Даже самый сложный алгоритм всегда будет действовать на основании фактов и постулатов, заложенных в него извне. Искусственный интеллект сейчас не имеет ни ценностей, ни морали, и потому решения, принятые им, могут нести самые печальные последствия», — отметил Гамула.
Ноябрьск стал финалистом конкурса «Умный город» и был признан лучшим по внедрению IT-технологий в Уральском федеральном округе. Теперь ямальский город будет бороться за победу, и в этом ему могут помочь северяне, отдав свои голоса за южные ворота ЯНАО.