13.05.2024 Экспертиза, Безопасность, Искусственный интеллект![Три основные этические проблемы ИИ. Источник: Immuta](/etc/images/367/o88onp3qfxws60kk93sw3wt2smoxoikb.jpg)
Три основные этические проблемы ИИ. Источник: Immuta
Существуют серьезные вопросы относительно конфиденциальности и безопасности данных при использовании приложений генеративного ИИ (GenAI), однако компании все равно спешат их внедрить. Таков вывод нового исследования Immuta «AI Security & Governance Report», в рамках которого было опрошено около 700 специалистов по данным. В отчете также говорится о некоторых преимуществах GenAI в плане инструментов обеспечения безопасности и конфиденциальности, сообщает портал Datanami. Отчет рисует мрачную картину надвигающихся проблем с безопасностью и конфиденциальностью данных, поскольку компании спешат воспользоваться возможностями GenAI, предоставляемыми с помощью больших языковых моделей (LLM), таких как GPT-4, Llama 3 и др. «В своем стремлении воспользоваться возможностями LLM и не отстать от быстрых темпов их внедрения, сотрудники всех уровней отправляют огромные объемы данных в неизвестные и непроверенные модели ИИ, — говорится в отчете. — Потенциально катастрофические затраты на обеспечение безопасности, связанные с этим, пока не ясны». Половина специалистов по данным, опрошенных Immuta, говорят, что в их организациях установлено четыре или более систем или приложений ИИ. Однако внедрение GenAI сопряжено с серьезными проблемами конфиденциальности и безопасности. По данным Immuta, 55% опрошенных считают, что непреднамеренное раскрытие LLM конфиденциальной информации является одной из самых серьезных угроз. Чуть меньшее число (52%) опасаются, что их пользователи передадут ...
читать далее.