Поддержать команду Зеркала
Беларусы на войне
  1. Лукашенко высказался по болезненной в последнее время для беларусов теме и предложил еще месяц потерпеть: «Это такой хитрый замысел»
  2. Конклав кардиналов в Ватикане выбрал папу римского. Стало известно его имя
  3. Лукашенко заявил, что «немного задержался» у власти, и призвал «потерпеть»
  4. Лукашенко выступил на параде в честь Дня Победы. Большая часть речи была посвящена ЕС, который он назвал «возрождающимся фашизмом»
  5. «Прошение о помиловании я не писал». Большое интервью «Зеркала» с Юрием Зенковичем, которому дали 11 лет за «государственный переворот»
  6. После 2020-го на заводах по требованию Лукашенко увольняли из-за «политики» — из закрытых документов стало понятно, чем это обернулось
  7. Эксперты рассказали, почему Россия против соглашения о прекращении огня и присутствия миротворцев в Украине
  8. Эксперты: Путин использует День Победы, чтобы подготовить общество к войне с Западом
  9. На параде в Москве Путин не сел возле Лукашенко. Его посадили возле политика, с которым тот конфликтовал
  10. Американский журналист спросил у Лукашенко, должен ли сейчас Путин согласиться на перемирие с Украиной. Вот его ответ
  11. Есть фирмы, которые из года в год выигрывают конкурсы по госзакупкам на крупные провластные мероприятия. 9 Мая не стало исключением
  12. Руководство Беларуси разворовало заграничную гуманитарку после войны. Из крупных чиновников наказали лишь одного — не поверите за что
  13. На рынке недвижимости в Минске возник дефицит некоторого жилья, из-за чего рекордно подскочили цены. Эксперты объяснили, что происходит


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.