28.05.2025 Экспертиза, Безопасность, Искусственный интеллект, МенеджментИндустрия переходит от автоматизации процессов к автоматизации принятия решений и гиперкастомизации, пишет на портале The New Stack Рампракаш Рамамоорти, руководитель направлений искусственного интеллекта и блокчейна в компаниях ManageEngine и Zoho. Хотя в последние несколько лет большие языковые модели (LLM) стали легкодоступными, их проникновение в ИТ-сектор было минимальным. Мы видели успешное внедрение моделей генеративного ИИ (GenAI) в SaaS-решения и такие области, как справочные службы; однако успешная интеграция GenAI в ПО для обеспечения безопасности была немногочисленной и редкой. Вообще говоря, перепрофилировать LLM для работы в сфере безопасности не так-то просто. LLM оптимизированы для работы с естественным языком; они не могут сразу понять или обработать такие элементы безопасности, как пакеты данных сетевого трафика, журналы, оповещения и графы знаний. Чтобы создать эффективную интеграцию GenAI в сферу безопасности, необходимо внедрить специализированный фундаментальный ИИ для рабочих ИТ-процессов. Эффективность моделей ИИ Недавняя тенденция к более эффективному построению моделей, а не к масштабированию любой ценой, является естественным развитием инструментов GenAI в корпоративном пространстве. Несмотря на всю шумиху вокруг LLM, не каждая бизнес-проблема требует LLM-решения. Если вы используете LLM в своей инфраструктуре, лучше всего правильно подобрать их размер (разделить их на более мелкие модели, которые решают конкретные бизнес-задачи), уделяя при этом ...
читать далее.