15.12.2023 Новости, Искусственный интеллект, Открытый код/LinuxСторонники закрытых базовых моделей искусственного интеллекта опасаются, что технология больших языковых моделей (LLM) с открытым исходным кодом может оказаться слишком опасной в чужих руках. Исполнительный директор Linux Foundation Джим Землин отверг это «смутное» представление на декабрьской конференции AI.dev в Калифорнии, сообщает портал The New Stack. «Сегодня, к сожалению, мы начинаем наблюдать тенденцию отхода от открытости в генеративном ИИ и перехода к более закрытым моделям, доступным только через API, — сказал Землин. — Я нахожу эти аргументы довольно расплывчатыми и неубедительными». Чем он это аргументирует? Во-первых, это новости из Европейского союза о первом в истории регулировании ИИ. В частности, LLM с открытым исходным кодом получили пропуск. Это радует, поскольку первоначальная версия этого закона жестко регулировала фундаментальные модели, включая Open Source-модели. Вняв возражениям, ЕС отказался от жестких ограничений и принял более мягкий подход. Полный текст закона еще не опубликован. Другие регулирующие органы будут внимательно изучать документ в поисках рекомендаций, что дает некоторую надежду на то, что отдельные страны обратят внимание и поймут, почему LLM с открытым исходным кодом — это более безопасный подход, чем закрытие доступа к открытым инновациям. Mistral услышала эту новость и начала действовать. Компания, состоящая из команды технологов OpenAI и Google, выпустила свою LLM с открытым исходным кодом вскоре после того, как появились ...
читать далее.