Поддержать команду Зеркала
Беларусы на войне
  1. Россия пошла в «когнитивную» атаку. Что происходит на фронте в Украине, где за сутки произошли десятки боестолкновений
  2. «Я любил этого парня в татуировках». Посмотрели, что пишут друзья, коллеги и герои «жизнь-малина» о Никите Мелкозерове
  3. Власти назвали имена артистов, которые выступят на новогодней дискотеке у Дворца спорта 1 января. В соцсетях удивились: «Кто все эти люди»
  4. Так что же за загадочный объект строят власти на заброшенной базе под Слуцком? В BELPOL дали точный и пугающий ответ
  5. Умер Никита Мелкозеров
  6. Правительство вводит изменения, которые касаются больничных, пенсий и взносов в ФСЗН
  7. 83 дня ада. Этот человек за секунду получил рекордную в истории дозу радиации — что было дальше
  8. Однажды тысячи беларусов вернулись из эмиграции. Рассказываем, какой они нашли родину после отъезда — и что с ними стало дальше
  9. Экс-политзаключенный Игорь Лосик показал сообщение, которое ему в личку Instagram прислал судебный исполнитель
  10. Беларусам предложили «удобные» полеты в Европу. Но не спешите радоваться
  11. Курс доллара будет расти перед новогодними праздниками? Прогноз для валют
  12. «Бэчебэшник», об убийстве которого говорил Лукашенко, существует и остался жив — представительница ОПК
  13. «Разговор был непростой». Последний гость в проекте Никиты Мелкозерова рассказал, как давал ему интервью
  14. «Сколько же он работал, как он вкладывался». У главы Минздрава возникли вопросы к одному из бравурных заявлений Лукашенко на ВНС


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.