4 августа 2025
Общество
Эксперты объяснили, как защитить запросы к ИИ от утечки данных
Старший преподаватель кафедры инструментального и прикладного программного обеспечения Андрей Рыбников отметил:
- Научные исследования подтверждают, что ИИ-модели могут быть подвержены атакам, связанным с извлечением обучающих данных. При определённых условиях злоумышленники способны получить доступ к информации, которую пользователь вводил в систему. Особенно уязвимы модели, обученные на открытых источниках без строгой фильтрации, а также те, которые продолжают обучение на пользовательских запросах.
В России действует закон "О персональных данных". Именно он запрещает их передачу третьим лицам без согласия человека.
Тем не менее пользователь должен понимать, где и как обрабатываются его запросы. А если сервис утверждает, что ничего не сохраняет, само отсутствие прозрачной политики уже может привести к нарушению закона.
Наименее рискованным вариантом считается использование локальных нейросетей, так как такие модели работают автономно, без передачи данных в облако. Тем не менее они требуют технической подготовки:
- Если развернуть собственную систему невозможно, рекомендуется использовать корпоративные версии ИИ-сервисов, где можно управлять политикой хранения информации, включая запрет на обучение модели на пользовательских запросах.
Рыбников подчеркнул, что если ИИ-помощник работает без интернета, то он все равно может сохранять историю запросов и журналы работы. Поэтому следует регулярно чистить кэш. Кроме того, стоит включить шифрование файловой системы, сообщает RT.
Ранее в Самаре родители и учителя рассказали, сколько школьников делают "домашку" с нейросетями.
Материалы по теме:
Самарские ученые модернизировали фотонный вычислитель / Самарский нейрохудожник Максим Мельников стал одним из лучших в мире / Школьник научил нейросеть распознавать патологию сетчатки глаза у новорожденных
Фото(множ):
Загрузить
Теги:
/
Дата изменения:
05.08.2025 13:37:41
Кем изменен (имя):
(Karlova) Karlova
Активность:
Y