Zametki na polyah (akor168) wrote,
Zametki na polyah
akor168

о сингулярности и логарифмической гипотезе

Возникает некоторое устойчивое раздражение по поводу разговоров о сильном АИ, который изобретается сначала, потом де начинает улучшать само себя, а потом еще раз сам себя, и еще раз, и так бах, бах и во все ускоряющем режиме, и здравствуй, Сингулярность (которая строго говоря и есть описание очень быстрого появления сверх АИ).

Так вот, что можно сказать.

Во-первых, тот прогресс в АИ, начатки которого мы наблюдаем сейчас, не имеет к сильному АИ никакого отношения. Что человечество разрабатывает сейчас это слабоумных, умных и сверх-умных дебилов, которые выполняют одну из 100500 задач на уровне человека и лучше(в перспективе). Да, их будут группировать в комплексы, даже в большие комплексы, но ничего подобного сильному АИ само-зародиться в этом комплексе не сможет просто физически(если все нейроны заполнены и сформированы, то для чего-то незаложенного извне попросту нет места). Даже более того, если ставить задачу специальной попытки вырастить чего-то, имеющего, скажем, самосознание, то совершенно не ясно, почему это может получится. Заметьте - специальной попытки. Зачем делать эти попытки, если специализированные АИ все равно будут лучше в отдельных задачах, это вопрос отдельный. Будут конечно пробовать делать из любопытства, может даже что и получится. Но для этого надо будет скорее всего целенаправленно генерировать аналог эмоций и аналог боли и страданий. Такая система будет пытаться это минимизировать, но приведет ли это к появлению самосознания или это просто будет сверх-умная амеба?
Здесь стоит заметить, что для машины нет никакой разницы между смертью и сном. И то и другое это попросту режим не-функционирования. Причем если вся информация сохранена, то систему можно всегда включить. Если часть информации теряется, то это уже хитрее.

Далее, тем не менее предположим, что мы научимся создавать искусственные разумные сущности. Во-первых, откуда люди берут предположения, что это будет обязательно быстро и потом все быстрее и быстрее. Вот даже сейчас промышленную нейронную сеть тренируют месяцами, если не годами. Это реально аналог воспитания, причем для решения даже простых задач. И процесс этот затратный, причем чем больше хочешь получить, тем больше придется потратить, причем тупо времени.

И третье и самое важное - кто вам сказал, что вообще существует некий супер-интеллект? Я уже поднимал этот вопрос - откуда берется утверждение об отсутствие предела интеллекта, или что этот предел сильно сильно превышает уровень, скажем, существующих лучших представителей человеческого рода. Нет, превышает, конечно, но во вполне разумное количество раз. Точнее шкала интеллекта скорее всего логарифмическая по отношению к потраченным ресурсам. То есть нейронная сеть размером с землю возможно и будет очень "умной" (при этом может совершенно не осознавать саму себя), но относительно количества ресурсов, требуемых для ее создания, выход будет сильно скромнее, чем если разбить ее на множество под-частей копий. Это условно говоря, гипотеза о логарифмическом характере роста интеллекта. Но логарифм с практической точки зрения нашего реального конечного мира ничем не отличается от константы. Причем константы небольшой.

Собственно, последний аргумент мне кажется наиболее убедительным против Сингулярности. Логарифмическое "качественное" улучшение АИ в зависимости от размера дает вполне ясную верхнюю границу на степень умности. Подчеркну - качественное. Как раз в количественном смысле копирование нужных структур в необходимых количествах будет явно оптимальнее. Грубо говоря, нет смысла воспитывать сеть в миллиард раз больше, если она будет функционировать лишь в 9-10 раз более эффективнее. Проще наклепать миллиард отдельных акторов, как собственно развивались и развиваются биологические виды.
Subscribe

  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 1 comment