08.09.2025 Экспертиза, Искусственный интеллектАвторы недавно опубликованного исследования очень конкретно определили, что на самом деле представляет собой «цепочка мыслей» («chain of thought», CoT) большой языковой модели (LLM), сообщает портал ZDNet. С тех пор, как программы искусственного интеллекта начали впечатлять широкую публику, ученые, занимающиеся ИИ, заявляют о более глубоком значении этой технологии, даже утверждая, что она может достичь уровня понимания, подобного человеческому. Однако они лишь «философствуют», потому что даже те, кто создает модели ИИ, такие как GPT-5 от OpenAI, не до конца понимают, как работают эти программы. «Черный ящик» ИИ и машина ажиотажа ИИ-программы, такие как LLM, известны как «черные ящики». Они достигают впечатляющих результатов, но в большинстве случаев мы не можем видеть все, что они делают, когда принимают входные данные, такие как введенный вами запрос, и выдают результат, такой как заказанная вами курсовая работа или предложение для вашего нового романа. В связи с этим для описания работы этих программ ученые стали использовать разговорные термины, такие как «рассуждение» («reasoning»). При этом они либо подразумевают, либо прямо утверждают, что программы могут «думать», «рассуждать» и «знать» так же, как люди. За последние два года риторика обогнала науку, поскольку руководители компаний, занимающихся ИИ, использовали гиперболы, чтобы преувеличить простые инженерные достижения. В пресс-релизе OpenAI, опубликованном в сентябре прошлого года, в котором была анонсирована ...
читать далее.