Skip to content Skip to sidebar Skip to footer

Для платформы Future.by понятие искусственный интеллект (ИИ) является базовым в проектировании «образа будущего». Хотя это понятие давно вошло в жизнь и стало привычным, продолжают кипеть споры – где грань между интеллектуальной обработкой набранных и упорядоченных данных (big data) по неким заложенным человеком алгоритмам и, собственно, ИИ, который не просто предлагает решения, но и сам ставит цели и задачи.

Ряд экспертов полагают, что качественным скачком искусственного интеллекта может стать именно выработка некоего замысла, что ранее было исключительной прерогативой человека. При этом они напоминают о морально-этических рамках применения ИИ, приводя в пример теоретическую возможность определять с помощью него победителей конкурсов красоты. По сути, этические факторы всё более выступают в качестве основной проблемы применения ИИ.

И речь идет не только о решениях о приёме на работу, о выдаче кредитов и допуске к определённым благам, видам деятельности или информации, где платформы на основе ИИ давно работают.

Ранее казавшиеся фантастическими угрозы того, что ИИ начнёт бороться с человечеством, сегодня уже не представляются таковыми. Если среди экологов давно укрепилась точка зрения, что самым неэкологичным и разрушительным для природной среды фактором является человек, то в постановке целей ИИ на основании больших данных вполне может решить, что человек и есть на планете «лишний». А «технологическая основа» для реализации такого решения уже существует. Ряд аналитиков и исследователей считают, что именно здесь – в постановке целей и задач и есть та грань, которую НЕ МОЖЕТ или даже НЕ ДОЛЖЕН по морально-этическим мотивам и мотивам безопасности переходить ИИ.

Наиболее сложной в этой связи является задача определения табу для тех или иных программ и проектов ИИ. Потому что эту задачу очень сложно формализовать. Впрочем, пока ИИ работает, как производная от человеческих решений, а не как «вещь в себе» и автономная система, время подумать над этим вопросом есть.

Show CommentsClose Comments

Leave a comment