Чат-боты с ИИ учатся с помощью человека, но их информация быстро стареет
Чат-боты на основе искусственного интеллекта прочно вошли в жизнь миллионов людей. Их используют в качестве консультантов, врачей, фитнес-тренеров или просто друзей. Люди задают множество вопросов, от рабочих до интимных. Но чтобы ответить, чат-ботам не всегда хватает собственных данных и тогда они используют интернет-поиск.
Как пишет издание ScienceAlert, к интернет-поиску при ответе на вопросы, например, прибегает ChatGPT. Это касается событий, произошедших после июня 2024 года. В целом, чат-боты работают по определенному алгоритму и, чтобы правильно с ними общаться и понимать, как они вообще работают, нужно знать всего 5 вещей. Тогда ответы на вопросы будут лаконичны и полны.
Учеба чат-ботов на основе ИИ проходит в несколько этапов. Сначала модели учат предусматривать следующее слово в текстах, затем развивать общее понимание языка, фактов и рассуждений. Люди-аннотаторы помогают направлять чат-боты к более безопасным и полезным ответам. Чтобы они, например, не отвечали на вопросы о создании взрывчатки или другие провокационные.
После таких согласований и выравниваний чат-боты на основе искусственного интеллекта дают ответы обтекаемые и советуют обратиться за помощью к специалистам или сертифицированным образовательным источникам. Если бы этого не было, они были бы непредсказуемы и могли распространять дезинформацию или вредоносный контент. То есть роль человека в обучении и формировании поведения ИИ является решающей.
В отличие от людей, изучающих язык через слова, чат-боты с ИИ делают это с помощью так называемых токенов. Эти единицы могут быть словами, подсказками или непонятными сериями символов. Словари современных чат-ботов состоят из 50-100 тысяч токенов.
Чат-боты с ИИ не обновляются постоянно, поэтому они испытывают трудности с объяснением определенных событий, которые произошли недавно. Текущая версия ChatGPT имеет информацию до июня 2024 года. Если приходит запрос на объяснение события после этой даты, то система прибегает к интернет-поиску, проводит анализ, а затем дает ответ.
Чат-боты с ИИ иногда генерируют ошибочные или нелепые заявления, потому что не проверяют факты. А все потому, что они подразумевают текст на основе шаблонов и не понимают реального мира. Эти недостатки в научном мире называют "галлюцинациями" ИИ. Над их минимизацией работают специалисты, но полностью устранить не могут. Поэтому пользователи должны рассматривать информацию, сгенерированную ИИ как отправную точку, а не как истину.
Несмотря на "галлюцинации", чат-боты с ИИ способны рассуждать и строить цепочку мыслей. Для решения сложных проблем они используют логически связанные промежуточные шаги. К примеру, для решения математических задач ChatGPT использует встроенный калькулятор. Именно он позволяет выполнять точную арифметику и делает это пошагово, понимая, что сначала выполняется умножение или деление, а только затем сложение или вычитание. Этот гибридный подход, объединяющий внутренние соображения с калькулятором, помогает повысить надежность чат-бота в сложных задачах.