Россиян предупредили об использовании нейросетей для краж персональных данных
![Россиян предупредили об использовании нейросетей для краж персональных данных](/upload/news/2023/04/07/23134.jpg?20230407175227)
Директор по искусственному интеллекту и цифровым продуктам «Билайна» Константин Романов предупредил россиян о том, что нейросети могут использоваться злоумышленниками для кражи персональных данных.
Его слова приводит РИА Новости.
«Она может обрабатывать огромные объемы данных и извлекать из них информацию, в том числе и конфиденциальную. Существует возможность использования нейросетей для взлома систем безопасности и доступа к защищенным данным», — пояснил эксперт.
Романов напомнил, что утечка данных может повлечь серьезные последствия, например, шпионаж или попадание сведений не только к мошенникам, но и к иностранным спецслужбам.
Специалист добавил, что кража персональной информации может подорвать доверие к компании со стороны клиентов. Он призвал фирмы, внедряющие нейросети в свои процессы, провести проверку и убедиться, что слив данных невозможен.
Читайте ещё:Гончаренко назвал основные даты для возможного прекращения войны в Украине
В конце марта предприниматель Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и искусственного интеллекта подписали открытое письмо с призывом приостановить обучение нейросетей из-за рисков. В письме утверждается, что технологии с искусственным интеллектом, сопоставимым человеческому, могут представлять значительный риск для общества и человечества.
Виктория ЯновскаяДругие новости по теме:
![](/upload/news/2025/02/06/91766_t.jpg)
![](/upload/news/2025/02/06/91764_t.jpg)
![](/upload/news/2025/02/06/91763_t.jpg)
![](/upload/news/2025/02/06/91758_t.jpg)
![](/upload/news/2025/02/06/91757_t.jpg)
![](/upload/news/2025/02/06/91754_t.jpg)
![](/upload/news/2025/02/06/91747_t.jpg)
![](/upload/news/2025/02/06/91745_t.jpg)
![](/upload/news/2025/02/06/91744_t.jpg)
![](/upload/news/2025/02/06/91743_t.jpg)
![](/upload/news/2025/02/06/91732_t.jpg)