AI capabilities were not unlimited
Подобно человеческому разуму, ИИ ограничен парадоксами теории множеств
Источник: Colors Collective: https://www.quantamagazine.org/mathematicians-measure-infinities-find-theyre-equal-20170912/
До сих пор считалось, что самой фундаментальной проблемой развитии технологий ИИ является необъяснимость принимаемых им решений. В январе 2019 к этой проблеме добавилась еще одна, не менее фундаментальная проблема — принципиальная непредсказуемость, какие задачи ИИ может решить, а какие нет.
На пути триумфального развития технологий машинного обучения, как казалось, способных при наличии большого объема данных превзойти людей в чем угодно — в играх, распознавании, предсказаниях и т.д. — встала первая из 23 проблем, поставленных в докладе Давида Гильберта на международном математическом конгрессе в Париже еще в 1900-м году.
Первой в списке этих 23 проблем, решение которых до сих пор считается высшим достижением для математика, была так называемая гипотеза континуума (континуум-гипотеза или 1я проблема Гильберта), которую выдвинул и пытался решить (но потерпел неудачу) еще сам создатель теории множеств Георг Кантор.
И вот сейчас, на исходе второго десятилетия XXI века гипотеза континуума, будучи примененная к задачам машинного обучения, стала холодным отрезвляющим душем для всех технооптимистов ИИ.
Машинное обучение оказалось не всесильно
И что еще хуже, — в широком спектре сценариев обучаемость ИИ не может быть ни доказана, ни опровергнута.
Первая же научная сенсация 2019 года оказалась совершенно крышесрывательной. Опубликованная 7го января в Nature Machine Intelligence статья «Learnability can be undecidable» (Обучаемость может быть неразрешимой) устанавливает предел возможностей машинного обучения — ключевого метода вычислений, на коем стоит весь современный ИИ.
Этот научный вывод столь важен, что журнал Nature сопроводил статью еще двумя популярно её разъясняющими статьями «Unprovability comes to machine learning» (Недоказуемость приходит в машинное обучение) и «Machine learning leads mathematicians to unsolvable problem» (Машинное обучение приводит математиков к неразрешимой задаче).
Суть всех этих статей в следующем
Обнаружены сценарии, в которых невозможно доказать, может ли алгоритм машинного обучения решить конкретную проблему.
Этот вывод может иметь огромное значение, как для существующих, так и для будущих алгоритмов обучения.
Обучаемость ИИ не может быть ни доказана, ни опровергнута с использованием стандартных аксиом математики, поскольку это связано с парадоксами, открытыми австрийским математиком Куртом Гёделем в 1930-х годах.
Парадоксы бесконечности
Теория множеств, так или иначе, является основой большинства разделов математики.
Парадоксы — это формально-логические противоречия, которые возникают в теории множеств и формальной логике при сохранении логической правильности рассуждения. Парадоксы возникают тогда, когда два взаимоисключающих (противоречащих) суждения оказываются в равной мере доказуемыми.
С точки зрения математики, вопрос «обучаемости» сводится к тому, сможет ли алгоритм извлечь шаблон из ограниченных данных. Ответ на этот вопрос связан с парадоксом, известным как вышеупомянутая континуум-гипотеза (проблема континуума или 1я проблема Гильберта) и разрешенным в 1963 г. американским математиком Полом Коэном.
Как велика бесконечность и что такое континуум-гипотеза?
“Решение оказалось весьма неожиданным: то, что утверждается в гипотезе континуума, нельзя ни доказать, ни опровергнуть, исходя из аксиом теории множеств. Гипотеза континуума логически независима от этих аксиом. Неспециалисту довольно трудно понять, почему утверждения такого рода играют для математики столь большую роль и ставятся на первое место в списке важнейших проблем. Отметим лишь, что на самом деле речь идет о вещах принципиальных и фундаментальных, так как континуум — это, по сути, базовая математическая модель окружающей нас физической, пространственно-временной реальности (частью которой являемся и мы сами), а в математике континуум — еще и синоним совокупности всех действительных чисел, также центрального понятия математики и ее рабочего инструмента”.
По сути Гёдель и Коэн доказали, что континуум-гипотеза не может быть доказана ни как истинная, ни как ложная, начиная со стандартных аксиом — утверждений, принятых как истинные для теории множеств, которые обычно принимаются за основу всей математики.
Иными словами, — утверждение не может быть ни истинным, ни ложным в рамках стандартного математического языка.
Что не менее важно, работа Гёделя и Коэна над континуум-гипотезой подразумевает, что могут существовать параллельные математические вселенные, которые совместимы со стандартной математикой — одна, в которой гипотеза континуума добавляется к стандартным аксиомам и поэтому объявляется истинной, а другая — в которой она объявляется ложной.
Не все наборы данных равны
Исследователи часто определяют обучаемость с точки зрения того, может ли алгоритм обобщать свои знания. Алгоритм сначала учится давать ответ на вопрос «да или нет» (например «показывает ли изображение кошки?») для ограниченного числа объектов, а затем алгоритм должен угадывать ответы для новых объектов.
Авторы нового исследования пришли к своему результату, исследуя связь между обучаемостью и «сжатием», подразумевающим поиск способа суммировать характерные особенности большого набора данных в меньшем наборе данных. Авторы обнаружили, что способность информации эффективно сжиматься сводится к вопросу из теории множеств. В частности, это относится к разным размерам множеств, содержащих бесконечно много объектов.
Т.о. с точки зрения математики, обучаемость — это способность делать прогнозы для большого набора данных путем выборки небольшого числа точек данных.
Однако существует бесконечно много способов выбора меньшего множества, и размер этой «бесконечности» неизвестен.
Если континуум-гипотеза верна, то для экстраполяции достаточно небольшой выборки.
Но если это неверно, никакой конечной выборки может быть недостаточно.
В итоге получается, что проблема обучаемости эквивалентна континуум-гипотезе. Следовательно, проблема обучаемости также находится в состоянии неопределенности, которая может быть решена только путем выбора аксиоматической вселенной.
Как отмечают авторы, — “недоказуемость приходит в машинное обучение”.
«В 2019 году машинное обучение превратилось в математическую дисциплину, объединяющую многие области математики, которые связаны с бременем недоказуемости и сопутствующими ему заморочками. Возможно, результаты, подобные этому, привнесут в область машинного обучения здоровую дозу смирения, даже если алгоритмы машинного обучения продолжат революционизировать мир вокруг нас».
Вот и получается, что знаменитая фраза В.Ерофеева справедлива и для машинного обучения, — в нашей математической вселенной «все должно происходить медленно и неправильно, чтобы не сумел загордиться человек, чтобы человек был грустен и растерян».
Все должно происходить медленно и неправильно, а бесконечность является нам во многих измерениях.
Ну а кого это не устраивает, могут попробовать сменить нашу математическую вселенную на какую-то иную.
Подобно человеческому разуму, ИИ ограничен парадоксами теории множеств
Источник: Colors Collective: https://www.quantamagazine.org/mathematicians-measure-infinities-find-theyre-equal-20170912/
До сих пор считалось, что самой фундаментальной проблемой развитии технологий ИИ является необъяснимость принимаемых им решений. В январе 2019 к этой проблеме добавилась еще одна, не менее фундаментальная проблема — принципиальная непредсказуемость, какие задачи ИИ может решить, а какие нет.
На пути триумфального развития технологий машинного обучения, как казалось, способных при наличии большого объема данных превзойти людей в чем угодно — в играх, распознавании, предсказаниях и т.д. — встала первая из 23 проблем, поставленных в докладе Давида Гильберта на международном математическом конгрессе в Париже еще в 1900-м году.
Первой в списке этих 23 проблем, решение которых до сих пор считается высшим достижением для математика, была так называемая гипотеза континуума (континуум-гипотеза или 1я проблема Гильберта), которую выдвинул и пытался решить (но потерпел неудачу) еще сам создатель теории множеств Георг Кантор.
И вот сейчас, на исходе второго десятилетия XXI века гипотеза континуума, будучи примененная к задачам машинного обучения, стала холодным отрезвляющим душем для всех технооптимистов ИИ.
Машинное обучение оказалось не всесильно
И что еще хуже, — в широком спектре сценариев обучаемость ИИ не может быть ни доказана, ни опровергнута.
Первая же научная сенсация 2019 года оказалась совершенно крышесрывательной. Опубликованная 7го января в Nature Machine Intelligence статья «Learnability can be undecidable» (Обучаемость может быть неразрешимой) устанавливает предел возможностей машинного обучения — ключевого метода вычислений, на коем стоит весь современный ИИ.
Этот научный вывод столь важен, что журнал Nature сопроводил статью еще двумя популярно её разъясняющими статьями «Unprovability comes to machine learning» (Недоказуемость приходит в машинное обучение) и «Machine learning leads mathematicians to unsolvable problem» (Машинное обучение приводит математиков к неразрешимой задаче).
Суть всех этих статей в следующем
Обнаружены сценарии, в которых невозможно доказать, может ли алгоритм машинного обучения решить конкретную проблему.
Этот вывод может иметь огромное значение, как для существующих, так и для будущих алгоритмов обучения.
Обучаемость ИИ не может быть ни доказана, ни опровергнута с использованием стандартных аксиом математики, поскольку это связано с парадоксами, открытыми австрийским математиком Куртом Гёделем в 1930-х годах.
Парадоксы бесконечности
Теория множеств, так или иначе, является основой большинства разделов математики.
Парадоксы — это формально-логические противоречия, которые возникают в теории множеств и формальной логике при сохранении логической правильности рассуждения. Парадоксы возникают тогда, когда два взаимоисключающих (противоречащих) суждения оказываются в равной мере доказуемыми.
С точки зрения математики, вопрос «обучаемости» сводится к тому, сможет ли алгоритм извлечь шаблон из ограниченных данных. Ответ на этот вопрос связан с парадоксом, известным как вышеупомянутая континуум-гипотеза (проблема континуума или 1я проблема Гильберта) и разрешенным в 1963 г. американским математиком Полом Коэном.
Как велика бесконечность и что такое континуум-гипотеза?
“Решение оказалось весьма неожиданным: то, что утверждается в гипотезе континуума, нельзя ни доказать, ни опровергнуть, исходя из аксиом теории множеств. Гипотеза континуума логически независима от этих аксиом. Неспециалисту довольно трудно понять, почему утверждения такого рода играют для математики столь большую роль и ставятся на первое место в списке важнейших проблем. Отметим лишь, что на самом деле речь идет о вещах принципиальных и фундаментальных, так как континуум — это, по сути, базовая математическая модель окружающей нас физической, пространственно-временной реальности (частью которой являемся и мы сами), а в математике континуум — еще и синоним совокупности всех действительных чисел, также центрального понятия математики и ее рабочего инструмента”.
По сути Гёдель и Коэн доказали, что континуум-гипотеза не может быть доказана ни как истинная, ни как ложная, начиная со стандартных аксиом — утверждений, принятых как истинные для теории множеств, которые обычно принимаются за основу всей математики.
Иными словами, — утверждение не может быть ни истинным, ни ложным в рамках стандартного математического языка.
Что не менее важно, работа Гёделя и Коэна над континуум-гипотезой подразумевает, что могут существовать параллельные математические вселенные, которые совместимы со стандартной математикой — одна, в которой гипотеза континуума добавляется к стандартным аксиомам и поэтому объявляется истинной, а другая — в которой она объявляется ложной.
Не все наборы данных равны
Исследователи часто определяют обучаемость с точки зрения того, может ли алгоритм обобщать свои знания. Алгоритм сначала учится давать ответ на вопрос «да или нет» (например «показывает ли изображение кошки?») для ограниченного числа объектов, а затем алгоритм должен угадывать ответы для новых объектов.
Авторы нового исследования пришли к своему результату, исследуя связь между обучаемостью и «сжатием», подразумевающим поиск способа суммировать характерные особенности большого набора данных в меньшем наборе данных. Авторы обнаружили, что способность информации эффективно сжиматься сводится к вопросу из теории множеств. В частности, это относится к разным размерам множеств, содержащих бесконечно много объектов.
Т.о. с точки зрения математики, обучаемость — это способность делать прогнозы для большого набора данных путем выборки небольшого числа точек данных.
Однако существует бесконечно много способов выбора меньшего множества, и размер этой «бесконечности» неизвестен.
Если континуум-гипотеза верна, то для экстраполяции достаточно небольшой выборки.
Но если это неверно, никакой конечной выборки может быть недостаточно.
В итоге получается, что проблема обучаемости эквивалентна континуум-гипотезе. Следовательно, проблема обучаемости также находится в состоянии неопределенности, которая может быть решена только путем выбора аксиоматической вселенной.
Как отмечают авторы, — “недоказуемость приходит в машинное обучение”.
«В 2019 году машинное обучение превратилось в математическую дисциплину, объединяющую многие области математики, которые связаны с бременем недоказуемости и сопутствующими ему заморочками. Возможно, результаты, подобные этому, привнесут в область машинного обучения здоровую дозу смирения, даже если алгоритмы машинного обучения продолжат революционизировать мир вокруг нас».
Вот и получается, что знаменитая фраза В.Ерофеева справедлива и для машинного обучения, — в нашей математической вселенной «все должно происходить медленно и неправильно, чтобы не сумел загордиться человек, чтобы человек был грустен и растерян».
Все должно происходить медленно и неправильно, а бесконечность является нам во многих измерениях.
Ну а кого это не устраивает, могут попробовать сменить нашу математическую вселенную на какую-то иную.
Комментариев нет:
Отправить комментарий