Астраханцев предупредили, что нейросети сливают личные данные

05/10/2025 - 06:22

Жителей Астрахани призвали учитывать вероятные угрозы, возникающие при передаче личных сведений при взаимодействии с платформами, использующими искусственный интеллект.

В эпоху прогресса искусственного интеллекта применение нейронных сетей приобретает все большую популярность. Астраханцам настоятельно рекомендовали не забывать о вероятных рисках слива личных данных при использовании крупных AI-платформ.

По словам создателя AI-платформы Clipstorm Тимура Турсунова, несмотря на предпринимаемые защитные меры, полностью исключить возможность несанкционированного доступа к данным при работе с нейросетями невозможно.

Случай с инженерами Samsung в апреле 2023 года, когда конфиденциальный код компании оказался на серверах Chat, является ярким примером угрозы. Инцидент должен послужить предостережением для всех, кто пользуется нейросетями.

Современные AI-системы, такие как Grok и OpenAI, создаются с учетом принципа защиты личных данных пользователей. Даже при их применении абсолютной гарантии конфиденциальности не существует.

Особую опасность представляют различные расширения и производные продукты, разработанные на основе нейросетей. Сторонние приложения могут самостоятельно сохранять вводимую пользователем информацию, становясь потенциальным источником утечки.

Эксперт в беседе с "МК-Астрахань" настоятельно рекомендовал ни в коем случае не передавать в какие-либо нейросетевые сервисы пароли, банковские реквизиты и паспортные данные.

Обсуждение условий соглашений и сотрудничества приемлемо, однако финансовые транзакции и обработка личной информации должны осуществляться исключительно через защищенные процессинговые платформы.

Автор: Елена БЫСТРОВА