01.12.2023 Экспертиза, Искусственный интеллект, МенеджментПо своей сути искусственный интеллект — это продукт двух компонентов: первый — данные, второй — алгоритмы, пишут на портале Datanami Рагид Эль-Яфури, стратег по цифровой трансформации и технический консультант, и Дэвид Лэнс, архитектор решений, Bottle Rocket Studios. Существуют различные типы алгоритмов, каждый из которых потенциально обладает определенным уровнем сложности. Среди них выделяются нейронные сети — многослойные алгоритмы, созданные для имитации человеческого подхода к решению проблем. Однако топливом для ИИ являются данные. ИИ нужны огромные объемы данных, чтобы начать генерировать полезные выводы. Большие языковые модели (LLM) — это подмножество ИИ, в котором алгоритм предназначен для обучения на основе огромного количества разнообразных данных для генерации нового мультимодального контента, включая текст, изображение, аудио, видео, код и 3D — отсюда и генеративный ИИ. Без алгоритма большие данные — это просто шум. А без данных алгоритм не имеет значения. Хотя мы испытываем от генеративного ИИ чувство, похожее на волшебство, на самом деле это сложная система, которая отражает предоставленные данные. На заре развития ИИ все создавали свои собственные модели с нуля. Но такой подход был дорогим и отнимал много времени. Теперь крупные компании выпускают базовые модели, которые другие компании могут использовать в качестве основы. Для дополнения базовой модели они могут предоставлять свои собственные данные, что позволяет адаптировать ответы, переходя от общих ...
читать далее.