08.11.2023 Экспертиза, Безопасность, Искусственный интеллектВ условиях, когда генеративный ИИ (GenAI) может стать переломным моментом как для законопослушных компаний, так и для киберпреступных группировок, важно разобраться в том, какой обоюдоострый меч представляют собой большие языковые модели (LLM) для кибербезопасности. Опрошенные порталом Information Age эксперты обсуждают риски, которые могут нести LLM для безопасности бизнеса, способы использования этой технологии злоумышленниками и то, как команды безопасности могут эффективно сдерживать атаки с использованием ИИ. LLM, лежащие в основе GenAI, в последнее время стали объектом значительных инвестиций и привлекли внимание практически всех коммерческих и технических подразделений организаций. В то же время командам кибербезопасности при оптимизации своих стратегий необходимо учитывать растущее использование LLM субъектами угроз, а также опасаться внутренних угроз. Опасности, которые следует учитывать Исследование компании Cybsafe, посвященное изменению поведения персонала в связи с появлением генеративного ИИ, показало, что сотрудники посредством инструментов ИИ делятся конфиденциальной информацией компании, которую, как они знают, не должны разглашать даже друзьям в социальной среде вне рабочего места. Более половины (52%) британских офисных работников вводили рабочую информацию в генеративный ИИ, причем 38% признались, что делились данными, которые они не стали бы случайно раскрывать друзьям в пабе. Передача LLM конфиденциальной информации может помочь субъектам угроз получить ...
читать далее.