Международная группа исследователей систем машинного обучения и искусственного интеллекта пришла к неутешительному выводу – они более ограничены, чем мы полагали. Это проистекает из математической природы их архитектуры и методов работы. Согласно «Теореме о неполноте» Геделя и положениям его же Второй теоремы, в реальности далеко не все математические задачи решаемы. А так как машинное обучение имеет именно математическую природу, то у него есть свой предел.
Одной из насущных проблем в машинном обучении является «оценка максимума». Ее можно проиллюстрировать на таком примере: есть некий сайт, который посетит неизвестное количество пользователей, чьи интересы заранее тоже неизвестны, но в целом набор параметров конечен. Нужно создать такой алгоритм, который обеспечит им всем показ целевой рекламы с точностью, близкой к абсолютной. При моделировании подобной ситуации ученые вышли на однозначное сходство с условиями «Гипотезы континуума», которая долго время находилась в списке нерешенных задач математики.
Если говорить точнее, то и для Теоремы о неполноте, и для Гипотезы континуума, не существует ответа в привычном для машины виде. ИИ, даже самый продвинутый, при решении подобной задачи выйдет на такой шаг, когда не сможет дать оценку «верно» или «неверно». Человек бы просто махнул рукой, ввел бы некоторое дополнительное условие или проигнорировал важность выбора, принял решение интуитивно. Алгоритмы машинного обучения не позволяют такой вольности, поэтому ИИ не сможет продолжить работу.
Бремя недоказуемости, увы, свойственно слишком многим математическим задачам, а потому вероятность того, что ИИ рано или поздно столкнется с похожей ситуацией, приближается к 100 %. Значит, нам нужно уже сегодня придумать, как позволить ему обойти подобные парадоксы. Но при этом сохранить ту точность анализа ситуации и принятия решений, ради которой мы и стараемся обучать наш рукотворный разум. А это тем сложнее, чем большее отклонение от правил допускается в его работе.