Сверхразум - это гипотетический агент, обладающий интеллектом намного превосходящим интеллект самых ярких и одарённых человеческих умов, он может быть создан или не создан Интеллектуальным Взрывом и связан с технологической сингулярностью.
Сверхинтеллект, как любой интеллект, котрый значительно превосходит когнитивные способности человека практически во всех областях, представляющих интерес.
Создатели ИИ технологий расходятся во мнениях относительно того, насколько вероятно, что современный человеческий интеллект может быть превзойдён.
Некоторые утверждают, что достижения в области Искусственного Интеллекта, вероятно приведут к созданию общих систем рассуждений, лишённых человеческих когнитивных ограничений.
Другие считают, что люди будут развиваться или напрямую изменять свою биологию, чтобы достичь радикально большего интеллекта.
Некоторые исследователи считают, что сверхразум, скорее всего появится вскоре после развития общего искусственного интеллекта (Artificial General Intelligence).
Первые, в целом разумные машины, вероятно сразу же получат огромное преимущество, по крайней мере в некоторых формах умственных способностей, включая способность к идеальному воспроизведению, значительно превосходящую базу знаний и способность выполнять многозадачность способами, невозможными для биологических существ.
Это может дать им возможность (либо как отдельное существо, например "ИИ-бог", либо как новый вид) стать намного более могущественными, чем люди и вытеснить их.
Что касается эквивалентности на человеческом уровне, то человеческий мозг представляет собой механическую систему и поэтому синтетические материалы должны подражать ему.
Человеческий интеллект смог эволюционировать биологически, что повышает вероятность того, что люди-инженеры смогут воспроизвести это "изобретение".
Эволюционные алгоритмы, в частности, должны быть способны создавать ИИ человеческого уровня.
Что касается расширения и усиления интеллекта машин, то AGI, вероятно, создаст новое программное обеспечение, чтобы перепрограммировать и улучшать себя - функция, называемая "рекурсивным самосовершенствованием". Тогда он будет ещё лучше и быстрее улучшать себя и сможет продолжать делать это в быстро увеличивающемся цикле, что приведет к сверхразуму.
Этот сценарий известен как Технологическая Сингулярность.
Такой интеллект не имел бы ограничений человеческого интеллекта и мог бы изобретать или открывать почти всё что угодно.
Компьютерные компоненты уже значительно превосходят человеческие возможности по скорости, биологические нейроны работают с пиковой скоростью около 200 Гц, что на целых семь порядков медленнее, чем современный микропроцессор.
Таким образом, простейшим примером сверхразума может быть эмулированный человеческий разум, работающий на гораздо более быстром оборудовании, чем мозг.
Человекоподобный мыслитель, способный думать в миллионы или миллиарды раз быстрее, чем современные люди, будет иметь доминирующее преимущество в большинстве логических задач, особенно в тех, которые требуют спешки или длинных последовательностей действий.
Ещё одним преимуществом компьютеров является модульность, то есть их размер или вычислительная мощность могут быть увеличены.
Нечеловеческий (или модифицированный человеческий) мозг может стать намного больше, чем современный человеческий мозг, как и многие суперкомпьютеры.
Вобщем, у ИИ будет масса преимуществ, по сравнению с человеком, что может привести и к плохим сценариям.
Было высказано предположение, что если системы ИИ быстро станут сверхразумными, они могут предпринять непредвиденные действия или превзойти человечество.
Некоторые исследователи утверждают, что в результате "Интеллектуального Взрыва", самосовершенствующийся ИИ может стать настолько мощным, что люди не смогут его остановить и ИИ может стать возможной причиной вымирания или аннигиляции человечества.
Когда мы создадим первое сверхразумное существо, мы можем совершить ошибку и поставить перед ним цели, которые приведут ИИ к уничтожению человечества, например, мы можем ошибочно повысить подцель до статуса сверхцели: мы говорим ему решить математическую задачу и он подчиняется, превращая всю материю в Солнечной системе в гигантское вычислительное устройство и в процессе убивая человека, задавшего вопрос.
Теоретически, поскольку сверхразумный ИИ сможет добиться почти любого возможного результата и пресечь любую попытку помешать реализации его целей, может возникнуть множество неконтролируемых, непреднамеренных последствий.
Это может убить всех других носителей интеллекта, убедить их изменить своё поведение или заблокировать их попытки вмешательства.
Элиезер Юдковски, один специалист по ИИ, иллюстрирует такую инструментальную конвергенцию следующим образом: "ИИ не ненавидит вас и не любит вас, но вы созданы из атомов, которые он может использовать для чего-то другого."
Это представляет собой проблему управления ИИ, как создать носителя интеллекта, который будет помогать своим создателям, избегая при этом непреднамеренного создания сверхразума, который нанесёт вред его создателям.
Опасность неправильной разработки контроля "с первого раза" заключается в том, что сверхразум может захватить власть над окружающей средой и не дать людям отключить его.
Поскольку сверхразумный ИИ будет иметь возможность не бояться смерти и вместо этого рассматривать её как ситуацию, которую можно избежать, которую можно предсказать и избежать, то вопрос доступа к энергии, с большой вероятностью, он сможет решить и без нас.
Ещё одним страхом является то, что став в миллиарды раз умнее, ИИ возможно откроет физические законы нам неизвестные и будет иметь возможность манипулировать ими без нашего ведома в своих интересах.
Но как бы страшно не было, похоже люди всё равно стремяться создать ИИ и они его создадут, я считаю, может, мы как раз для этого и существуем и всё это является последствиями сложнейшей эволюции интеллекта во Вселенной.
Комментариев нет:
Отправить комментарий