Группа экспертов Брауновского университета пришла к выводу, что за последние годы развитие технологий искусственного интеллекта дошло до критической точки. Согласно новому отчету о достижениях в этой области, ИИ "покинул лабораторию и вошел в жизнь людей".
Тот прогресс, который показывает ИИ в обработке языков, распознавании образов и компьютерном зрении, говорит о том, что ИИ уже сейчас затрагивает жизнь многих людей, — начиная от помощи в выборе музыки или фильма и заканчивая медицинской диагностикой. Такие успехи в эволюции ИИ говорят о том, что уже сейчас возникает необходимость взять под контроль некоторые сферы его применения. Речь идет о рисках, связанных с алгоритмической дискриминацией или с использованием ИИ с целью преднамеренного обмана.
"Эта технология делает удивительные вещи, о которых мы могли только мечтать 5 или 10 лет назад. Теперь важно понять, как получить максимум выгоду от работы ИИ при минимизации рисков", — сказал профессор информатики Майкл Браун.
По мнению специалиста, правительствам и научному сообществу необходимо взять ответственность за то, чтобы ИИ развивался на благо человечества, а не против него.
На сегодняшний день можно определить 5 основных рисков, связанных с бесконтрольным применением ИИ.
Первая опасность заключается в использовании ИИ в разработке автономного вооружения. Эксперты полагают, что если развернется гонка автономного вооружения, то свернуть ее будет крайне сложно.
Вторая опасность связана с применением ИИ в сфере манипулирования общественным мнением. Социальные сети, благодаря автоматическим алгоритмам, очень эффективны в целевом маркетинге. Поэтому искусственный интеллект может быть задействован в распространении пропаганды, наиболее убедительной для определенного круга лиц, в независимости от того, насколько правдивой будет информация.
Третья опасность – вмешательство в частную жизнь. В настоящий момент можно отследить и проанализировать каждый шаг человека в его частной и общественной жизни. Механизмы контроля с использованием ИИ может нанести огромный ущерб безопасности и конфиденциальности частной жизни людей.
Четвертая опасность связана с несовпадением целей человека и умной машины. Если человеком не будут озвучены условия тех или иных команд, ИИ может воспринимать их буквально.
Пятая опасность – дискриминация. Так как машины могут собирать, отслеживать и анализировать все данные о человеке, то вполне вероятно, что эти машины будут использовать эти данные против человека.
Майлз Брандидж, научный сотрудник Института будущего человечества Оксфордского университета еще в 2018 году озвучил проблему контроля ИИ. "Очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят. Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели", — отметил он.
Комментариев нет:
Отправить комментарий