Хайп
Что не ИИ?
Словом искусственный интеллект сейчас называют “всё непонятное”. Например, чайники и холодильники с вайфай которые заказыают продукты, расчет кредитных рисков при выдаче ипотек, распознавание лиц, система умного дома которая включает свет, отопление когда вы приближаетесь к дому или шутки колонки Алиса, итд – что из этого ИИ, а что нет? Грань очень тонка и определятся не применением, а методами достижения результата. Например если кредитный риск рассчитан по статистическим формулам на основе вашего поведения, то это обычная статистика, если включение умного дома прошло по заданным правилам, то это обычное управление по отклонению из теории управления, если Алиса на ваш запрос про погоду возьмет прогноз с gismeteo и зачитает, то это тоже не ИИ.
Что есть ИИ?
ИИ – общий термин для всего непонятного, что пытается “заставить компьютер думать”. Что значит “думать”? – вопрос философский, но в терминах ИИ это значит создавать новые смыслы которых не было раньше, про которые ИИ не знал до своего обучения.
Искусственным интеллектом стали называть то, что производит кажущиеся разумными результаты – умные тексты, генерированные изображения и видео, умение отличать, классифицировать и выделять общности, итд. Применений становиться всё больше и больше, но суть одна – “умный” результат, а правда ли это умный результат?
Вот такое описание про себя сгенерировал сам ИИ: «Искусственный интеллект (ИИ) – это область компьютерных наук, занимающаяся созданием программ и систем, способных выполнять задачи, которые обычно требуют человеческого интеллекта. ИИ позволяет компьютерам “думать”, “учиться” и принимать решения на основе данных, алгоритмов и обучения. Это может включать в себя распознавание образов, естественный язык, планирование, решение проблем, автоматизацию и даже создание искусств.»
Как он это делает? Всё просто: ИИ обучается на предопределенной выборке данных – обучающемуся наборе, это может быть тексты мировой литературы, могу быть фото котов, любые данные а которых есть какой-то “смысл”. При обучении ИИ выделяет этот смысл и запоминает, это называется обучением модели. Самое интересное начинается когда обученной модели задали вопрос про то, что модель ещё не знает, и обученная модель не знает ответа, но знает как получить новый ответ на основе построения связей по обучающей выборке.
Технически к ИИ относят системы машинного обучения, нейронные сети, генеративные модели, языковые модели LLM, частично big data. В основе ИИ лежит принцип обучения, в отличие от обычной программы которая делает, то, что однозначно запрограммировано. Результат программы можно предсказать, результат работы ИИ вариативен и часто непредсказуем.
Как работает ИИ?
Общий принцип работы достаточно прост – есть компьютер (модель в терминах ИИ) который мы обучаем, а потом модель сама принимает и дает “осмысленные” решения. Технически обучение выглядит так: мы загружаем в модель данные в которых есть “смысл”, в терминах ИИ это называется – размеченные данные или обучающая выборка. Как выглядит эти данные? Например мы даем машине 100 фотографий с котами и говорим, вот на этих фото – коты. Машина разбирает каждую фотографию и запоминает, что “такое расположение пикселей между собой характерно для изображения кота”. Машина запоминает и записывает в матрицу принцип расположение пикселей для того, что люди считают является котом. В терминах ИИ люди – кожаные мешки. После этого случается магия – мы даем машине НОВУЮ картинку с котом, которую машина еще не видела, и машина говорит, что да, это тоже кот! Т.е. машина по соотношению пикселей между собой может понять, что машине подсовывают кота. Как такого знания про котов у ИИ нет, но есть понимание логики как кожаные мешки принимают решения про котов. Дальше магия цифр – обучаем машину не на 100 картинках, а на миллиарде, после этого “обучения” машина сможет распознать таких котов которые средний человек не распознает. Средний человек видел в своей жизни условно 10000 котов и на основе этого человек делает вывод о следующей картинке, а машина после обучения “видела” миллиарды котов и сможет определить лучше то, что человек за свою жизнь еще на видел. Так, например, работает поиск друзей в соцсетях по фото, распознавание лиц, номеров, итд.
По похожему принципу работают генеративные модели текстов – модный ChatGPT (Generative preTrained Transformer) – только в генеративной текстовой модели угадываются не похожесть картинки, а “логически” следующее слово в предложении. Похоже на задачи из учебника по английскому – London is the Capital of … здесь машина “угадывает”, что наиболее вероятно будет [Great Britain]. Есть вероятность, что будет [the United Kingdom], но тут ИИ смотрит какое слово имеет большую вероятность в его обучающей выборке и подставляет его. Вероятность определяется количеством текстов из “обучения модели” с вхождением [Great Britain] или [the Untied Kingdom]. Т.е. разно-обученные модели выдадут разный результат. Есть ещё один забавный факт, одна и та же модель, чтобы максимально соответствовать поведению кожаных мешков, будет случайным образом менять [Great Britain] и [the Untied Kingdom], именно отсюда вы каждый раз видите разные результаты при одинаковых запросах к ChatGPT.
С угадыванием одного слова всё просто, а как ChatGPT выдает огромные “осмысленные” тексты? – опять магия больших цифр, – следующее слово угадывается не просто по предыдущему, а по предыдущему сгенерированному машиной тексту, на следующей итерации берется весь текст с новым добавленным словом, и так по слову генерируются “умный и связанный” текст.
Для обучения генеративных текстовых даже не надо готовить отдельных обучающих выборок – в текстах мировой литературы уже есть заложенный смысл. Скармливаем машине сочинения Толстого и машина научиться генерировать тексты как Толстой, предположительно с тем смыслом который был у Толстого, но это не точно.
Что в итоге?
- Смысл – в сгенерированных артефактах (фото, тексты, видео) ИИ есть зависимости, но являются ли эти зависимости – смыслом?
- Перекомпиляция – ИИ видет “смысл” лишь из того что “видела” модель, плюс случайная составляющая.
- Магия – из за того, что ИИ “видел” огромные массивы информации (вот где появляется Big Data) для кожаного мешка “смыслы” которые создает ИИ кажутся магией, но это лишь большое количество зависимостей.
- Коты – задачи сравнений (найти кота) у ИИ получаются особенно хорошо
Что говорят?
Сэм Альтман, CEO, OpenAI
ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness.
По замечанию знакомого лингвиста
то, что создается в ChatGPT – шизофренический бред! Интересно, что диагноз от лингвиста полностью подтверждается клиническими характеристиками медицинского диагноза, – наличие кажущегося смысла.
Что дальше?
Куда мы с этим придем? Непонятно, интересно, посмотрим. Точно много рутины исчезнет, это хорошо, но главное, чтобы кожаные мешки в конец не обленились.
Ссылки
- статья бывшего коллеги из Яндекс “Как работает ChatGPT” https://habr.com/ru/companies/ods/articles/716918/
- разбор webGPT https://habr.com/ru/companies/ods/articles/709222/