Поддержать команду Зеркала
Беларусы на войне
  1. Лукашенко не верит, что минчанам сложно передвигаться в темноте, и требует продолжения эксперимента с уличным освещением
  2. «Я так понимаю, переусердствовали». Спросили в Минэнерго и Мингорисполкоме, почему освещение в столице включили позже обычного
  3. Регистрация терминалов Starlink в Украине может ослабить возможности России по ударам в глубине обороны — ISW
  4. В Беларуси повысили минимальную цену на популярный вид алкоголя
  5. Опрос: 46% жителей Польши испытывают неприязнь к беларусам. Что это значит
  6. Лукашенко потребовал экономить на уличном освещении. Разбираемся, с чем это может быть связано
  7. Пропагандист взялся учить беларусов, как работать и зарабатывать. Экономистка ему ответила и объяснила что к чему
  8. После жалобы в TikTok на блудное стадо коров беларуску забрали в милицию и провели беседу об «экстремизме»
  9. Беларуска пожаловалась, что в ее райцентре «не попасть ни к одному врачу». В больнице ответили
  10. В Литве ответили на предложение Колесниковой начать диалог с Лукашенко и вернуть электричку из Вильнюса
  11. Олимпийская чемпионка, две уроженки России, дебютантка. Рассказываем обо всех спортсменках, которые представят Беларусь на Играх-2026
  12. Распоряжение экономить на уличном освещении зимой — не первое абсурдное решение Лукашенко. Вспоминаем, что еще он предлагал и требовал
  13. Живущих за границей беларусов обяжут сдавать отпечатки пальцев — кого и когда коснутся новые правила
  14. Беларусы рассказывают о странных сообщениях от бывших коллег. Почему они могут быть еще более тревожными, чем кажется на первый взгляд


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.