В 2023-м слово «галлюцинировать» использовали как глагол для обозначения того, как чат-боты выдают неправильную или обманчивую информацию.

Помогаем

Поможем врагу с билетами на кобзона. Собираем на Mavic для наших защитников

Поможем врагу с билетами на кобзона. Собираем на Mavic для наших защитников

Согласно Кембриджскому словарю, оригинальное определение слова «галлюцинировать» / hallucinate — «видеть, слышать или чувствовать запах того, что не существует», как правило, из-за «ухудшения состояния здоровья или употребления наркотика». В этом году оно приобрело дополнительно значение, и им стали обозначать то, как чат-боты, вроде ChatGPT, выдают ложную информацию.

Все галлюцинируют, но GPT-4 лучше в математике — сравнительное тестирование моделей Meta, OpenAI, Cohere и Anthropic

Как главное слово года, его выбрали потому, что новое значение «добирается до сути того, почему люди говорят об ИИ».

В этом году в словарь также добавили ряд статей, связанных с искусственным интеллектом, в том числе большую языковую модель (или LLM), генеративный искусственный интеллект (или GenAI) и GPT (аббревиатура от Generative Pre-trained Transformer).

Среди слов, количество поисковых запросов по которым резко возросло в онлайн-словаре, были слово «implosion‎» (когда назвали причину аварии субмарины «Титан») и GOAT (аббревиатура от «greatest of all time», которая стала популярной после Чемпионата мира в Катаре, когда люди пытались определить — кто же величайший футболист всех времен).

«Галлюцинации ИИ напоминают нам, что людям все еще нужно полагаться на свои навыки критического мышления, чтобы использовать эти инструменты», — пишут на сайте словаря. «Большие языковые модели настолько надежны, насколько надежна информация, на которой учатся их алгоритмы. Человеческий опыт, пожалуй, важнее, чем когда-либо, для создания авторитетной и актуальной информации, на которой можно учиться».

Генри Шевлин, специалист по этике искусственного интеллекта Кембриджского университета, сказал, что этот год, вероятно, будет «самым волнующим» в отношении галлюцинаций искусственного интеллекта, поскольку компании прилагают усилия, чтобы уменьшить частоту ошибок (хотя эффективного инструмента для этого еще не придумали).

Курс Python. Цю мову програмування використовують від базових концепцій до складних застосувань у сферах штучного інтелекту. Після проходження курсу гарантовано отримай роботу в ІТ. Більше про курс.

В словаре приведены два примера использования слова галлюцинировать относительно искусственного интеллекта:

  • «LLM печально известны тем, что галлюцинируют — генерируют совершенно ложные ответы, часто подкрепленные вымышленными цитатами».
  • «Последняя версия чат-бота значительно усовершенствована, но она все еще будет галлюцинировать».

Хотя есть примеры, которые уже имели реальные последствия — американская юридическая фирма использовала ChatGPT для юридических расследований, что привело к цитированию в суде фиктивных дел; а в собственном рекламном видео Google чат-бот Bard совершил фактическую ошибку в отношении космического телескопа Джеймса Уэбба.

Ранее издатель словаря Collins назвал AI (ИИ) самым выдающимся словом 2023 года.

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here