30.07.2025 Экспертиза, Искусственный интеллект, Открытый код/LinuxГаган Тандон, управляющий директор TELUS Digital Solutions по сервисам искусственного интеллекта и данных, рассказывает на портале ITPro Today, почему для обучения модели ИИ, которое когда-то требовало сотен людей, теперь требуется всего лишь дюжина — за малую часть прежних затрат. Всего несколько лет назад обучение больших языковых моделей (LLM) требовало значительных ресурсов, длительных сроков и скоординированных усилий сотен людей. Но в 2025 г., как утверждает OpenAI, ту же работу теперь может выполнить менее чем дюжина человек. Чем объясняется этот замечательный сдвиг? Достижения в разработке ИИ-чипов, существенное снижение затрат и демократизация ИИ, включая наличие и доступность мощных Open Source-инструментов. Какие факторы помогли улучшить обучение моделей ИИ? Помните сгенерированные ИИ видео Уилла Смита, поедающего спагетти, которые стали вирусными в начале 2023 г.? Хотя было ясно, что именно пытались изобразить ИИ-платформы, видеоролики выглядели абстрактными и вымышленными. Однако всего два года спустя ИИ-платформы могут генерировать те же самые видеоролики настолько четко и точно, что часто обманывают зрителей, заставляя думать, что они настоящие. Этот скачок вперед во многом обусловлен достижениями в обучении моделей ИИ. Ранние модели в основном фокусировались на больших объемах нечетко подобранного текста или изображений. Современные системы обучаются с использованием мультимодальных входных данных, объединяющих текст, изображения, видео и аудио для получения ...
читать далее.