Астраханцев предупредили, что нейросети сливают личные данные
Жителей Астрахани призвали учитывать вероятные угрозы, возникающие при передаче личных сведений при взаимодействии с платформами, использующими искусственный интеллект.
В эпоху прогресса искусственного интеллекта применение нейронных сетей приобретает все большую популярность. Астраханцам настоятельно рекомендовали не забывать о вероятных рисках слива личных данных при использовании крупных AI-платформ.
По словам создателя AI-платформы Clipstorm Тимура Турсунова, несмотря на предпринимаемые защитные меры, полностью исключить возможность несанкционированного доступа к данным при работе с нейросетями невозможно.
Случай с инженерами Samsung в апреле 2023 года, когда конфиденциальный код компании оказался на серверах Chat, является ярким примером угрозы. Инцидент должен послужить предостережением для всех, кто пользуется нейросетями.
Современные AI-системы, такие как Grok и OpenAI, создаются с учетом принципа защиты личных данных пользователей. Даже при их применении абсолютной гарантии конфиденциальности не существует.
Особую опасность представляют различные расширения и производные продукты, разработанные на основе нейросетей. Сторонние приложения могут самостоятельно сохранять вводимую пользователем информацию, становясь потенциальным источником утечки.
Эксперт в беседе с "МК-Астрахань" настоятельно рекомендовал ни в коем случае не передавать в какие-либо нейросетевые сервисы пароли, банковские реквизиты и паспортные данные.
Обсуждение условий соглашений и сотрудничества приемлемо, однако финансовые транзакции и обработка личной информации должны осуществляться исключительно через защищенные процессинговые платформы.
