Распространённые заблуждения об искусственном интеллекте

Разберёмся, что на самом деле стоит за нашими любимыми чат-ботами с искусственным интеллектом.

Если 1950-е годы открыли эру космоса, а 1990-е стали временем расцвета интернета, то 2020-е, вероятно, войдут в историю как начало эпохи искусственного интеллекта. В ноябре 2022 года компания OpenAI запустила ChatGPT. Сегодня этот генеративный чат-бот привлекает сотни миллионов пользователей каждую неделю.

Google и Яндекс теперь дополняют результаты поиска ответами, созданными искусственным интеллектом, а генеративные модели изображений способны по текстовому описанию создавать фотореалистичные изображения и даже видео. Во многом нынешнее десятилетие напоминает то самое будущее из научной фантастики, которое нам обещали всю жизнь.

Однако важно помнить, что искусственный интеллект вовсе не новое изобретение. В зависимости от того, как его определять, ИИ существует уже почти 70 лет. Тем не менее, хотя большинство из нас ежедневно пользуется системами искусственного интеллекта, стоит задать себе вопрос: действительно ли мы понимаем, как они работают?

Печатная плата и микропроцессор AI

ИИ изобрели в XXI веке

На самом деле ещё в 1956 году профессор и инженер-электрик Артур Самуэль представил миру свою автономную программу для игры в шашки. Он разработал её для компьютера IBM 701. Для того времени эта машина была впечатляющей, но её мощности не хватало, чтобы заранее просчитывать все возможные исходы каждой партии. Вместо этого программа принимала решения в реальном времени, оценивая шансы на победу из конкретной позиции, не доигрывая игру до конца.

Кроме того, программа становилась лучше по мере игры, учась на собственных ошибках и успехах. В 1959 году Артур Самуэль ввёл в обиход термин «машинное обучение», чтобы описать этот процесс. Сегодня Samuel Checkers помнят как первую в мире самообучающуюся программу. Её общий результат был неоднородным, но к 1962 году она натренировалась достаточно, чтобы победить в партии самопровозглашённого мастера по шашкам Роберта Нили.

Головоломка с мозгом, идеей и иконками управления

ИИ имеет чёткое определение

Если программа Самуэля стала первым примером машинного обучения, означает ли это, что она была и первым искусственным интеллектом? Ответить на этот вопрос сложнее, чем кажется. Дело в том, что специалисты до сих пор не пришли к единому мнению, что именно следует считать ИИ.

Сам термин был введён в 1955 году профессором Дартмутского колледжа Джоном Маккарти для летнего семинара, посвящённого новым идеям о «мыслящих машинах». Хотя название быстро прижилось, уже тогда у него появились критики. Некоторые участники семинара называли его броским и обманчивым.

Сегодня термин тоже критикуют. Многие эксперты утверждают, что ИИ не является ни «искусственным» в буквальном смысле (ведь создаётся из реальных материалов), ни сопоставимым с настоящим человеческим интеллектом. Например, NASA определяет ИИ как компьютерные системы, способные выполнять сложные задачи, обычно требующие человеческого мышления, принятия решений или творческого подхода. Но агентство признаёт, что единого простого определения ИИ нет.

Если следовать такому широкому пониманию, то ярлык «искусственный интеллект» подходит не только ChatGPT. Сюда же можно отнести алгоритмы Netflix, расчёт времени в Google Maps и даже функцию автокоррекции на вашем смартфоне. Но это создаёт определённую путаницу.

Руки робота печатают на клавиатуре

Мы уже достигли уровня ИИ, равного человеку

Когда речь заходит об искусственном интеллекте, специалисты обычно выделяют три большие категории: искусственный узкий интеллект (ANI), искусственный общий интеллект (AGI) и искусственный сверхинтеллект (ASI).

Согласно IBM, все существующие сегодня ИИ-системы относятся именно к искусственному узкому интеллекту. Такие программы могут быть обучены выполнять одну или несколько ограниченных задач, причём нередко быстрее и точнее человека. Однако они не способны выйти за рамки заданной области.

Например, чат-боты могут казаться «умными», но пока не умеют мыслить самостоятельно, как это делают люди. Такой уровень называют AGI или «человеческим интеллектом». Программа, достигшая этого уровня, сможет понимать любые концепции и выполнять любые интеллектуальные задачи не хуже человека. Иными словами, это та самая мечта (и одновременно кошмар) научной фантастики.

Большинство экспертов согласны, что до настоящего искусственного общего интеллекта мы ещё не дошли. Однако некоторые утверждают, что сегодняшние узкие системы в будущем будут считаться ранними примерами AGI.

Лампа в руках робота

Генеративный ИИ — это надёжный исследовательский инструмент

Генеративные чат-боты действительно впечатляют. Кажется, они могут ответить на любой вопрос — от «Что стало причиной Первой мировой войны?» до «Что приготовить на ужин из сырных палочек и банки маринованных огурцов?». Их ответы звучат настолько убедительно, что многие начинают считать крупные языковые модели инструментами, ориентированными прежде всего на точность. Но это не так.

Как отмечает PBS, генеративная модель вроде ChatGPT анализирует текущий контекст беседы, вычисляет вероятность каждого слова из своего словаря и выбирает наиболее подходящее. Затем она повторяет этот процесс снова и снова, пока не завершит ответ.

Иными словами, ИИ формирует ответы так, чтобы они звучали правильно, но их реальная точность может меняться. В 2024 году анализ показал, что ChatGPT-4.0 выдавал точные ответы в 88,7 % случаев — это выше, чем у многих конкурентов. Однако, поскольку такие системы «заточены» на правдоподобие, ложные сведения или так называемые «галлюцинации» бывает сложно заметить.

Фигурка робота с ноутбуком

ИИ имеет чувства

В 2022 году Google уволила инженера-программиста, который заявил, что их генеративный чат-бот LaMDA обрёл сознание. Его насторожило, что система заговорила о своих правах и личности в беседе о религии. Он сравнил общение с ботом с разговором с семи- или восьмилетним ребёнком, который случайно знает физику.

Значит ли это, что ИИ наконец научился думать, чувствовать и требовать прав? К счастью, нет. Так же как чат-боты могут выдавать убедительные «галлюцинации» в ответ на вопросы о фактах, они могут создавать и «подозрительно человеческие» эмоции, не имея при этом настоящих чувств. По сути, они лишь комбинируют фразы, усвоенные из интернета, чтобы звучать убедительно здесь и сейчас.

Если генеративный ИИ вдруг начнёт говорить о любви, сознании или планах свергнуть человечество — это потому, что он обучался на десятилетиях научной фантастики, где такие темы активно обсуждаются. К тому же человеческая склонность привязываться к неодушевлённым объектам тоже играет роль.

Так что, общаясь с ИИ, не переживайте о том, что вы заденете его «не существующие» чувства. По словам генерального директора OpenAI Сэма Олтмана, использование слов «пожалуйста» и «спасибо» при запросах стоит компании десятки миллионов долларов и приводит к существенной трате ресурсов. Это значит, что если вы хотите быть вежливыми по отношению к окружающей среде, лучше обойтись без этих формальностей.

Различные жёлтые смайлики

Последние новости