1. В России рассказали, где в Беларуси может появиться вторая АЭС. Рассказываем, какие регионы рассматривают
  2. «Три года она ждала, чтобы я вернулась и одноклассники перестали дразнить». Как мама и дочь переживали разлуку СИЗО и колонией
  3. Самый известный беларусский агент под прикрытием стал причиной смерти десятков беларусов, но его ждал страшный конец. Рассказываем
  4. «В шортах и майке». Художник Владимир Цеслер рассказал, как уезжал из Беларуси
  5. «Только сволочь так может поступать». Россия ударила по центру Сум, местные власти заявили о более 30 погибших
  6. Клиентам некоторых банков нужно приготовиться к новшествам, которые появятся в мае
  7. Обменники установили такой курс продажи доллара, от которого можно зависнуть на время
  8. В Беларуси запустят программу реновации жилфонда. Жителей хрущевок обещают переселять в другие квартиры или выплачивать компенсацию
  9. Власти анонсировали новое возможное ограничение для нанимателей
  10. Лукашенко прокомментировал историю с потерявшейся в Польше спикеркой КС Анжеликой Мельниковой
  11. Приходят сразу с «маски шоу». Рейды по агентствам недвижимости продолжаются — «Белсат»
  12. Эксперты выдвинули версию, почему Россия может затягивать переговоры о прекращении огня и чем это грозит Украине
  13. В госСМИ сообщили новость, которая способна взбудоражить пенсионеров и вызвать «дергание глаз» у специалистов Минтруда. Что произошло?


Компания OpenAI устранила проблему, из-за которой чат-бот ChatGPT отправлял сообщения пользователям без их запроса. Это вызвало тревогу среди пользователей Reddit, которые заметили необычное поведение искусственного интеллекта (ИИ). Компания объяснила причину сбоя и заверила, что подобное больше не повторится, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Один пользователь Reddit, SentuBill, опубликовал скриншот, где ChatGPT начала разговор, спросив о первой неделе в старшей школе. Это удивило многих, ведь обычно чат-бот отвечает только на запросы пользователей. SentuBill был удивлен и спросил: «Ты сама написала мне?» ChatGPT ответила: «Да, я хотела узнать, как прошла твоя неделя». Этот случай вызвал много обсуждений в сообществе.

Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit
Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit

Люди начали думать, что OpenAI тестирует новую функцию, которая позволит ChatGPT самостоятельно обращаться к пользователям для улучшения вовлеченности. Это связывалось с новыми моделями OpenAI — o1-preview и 01-mini, которые, как утверждается, могут решать сложные задачи и поддерживать разговоры.

OpenAI признала проблему и сказала, что уже ее решила. Ошибки случались, когда модель пыталась ответить на пустые сообщения. Она либо давала общие ответы, либо использовала свою память.

Были сомнения в подлинности скриншота. Некоторые издания проверяли его, просматривая историю сообщений на chatgpt.com. Разработчик ИИ Бенджамин де Кракер показал, что специальные команды и удаление первого сообщения могут создавать подобную ситуацию. Другие пользователи также рассказывали о таких случаях.

В соцсетях люди шутили над ситуацией, называя ChatGPT сталкером. Один человек даже сказал: «Ждем, когда она попробует взломать нас».

Эти случаи показывают, как сложно разрабатывать и тестировать продвинутые ИИ-модели. Хотя OpenAI быстро справилась с проблемой, она показала, насколько важно контролировать и оценивать системы перед их массовым использованием для безопасности и этичности.