18.07.2024 Экспертиза, Искусственный интеллект, МенеджментВ мире генеративного искусственного интеллекта (GenAI) ничто не стоит на месте. Системные подсказки (system prompts), которые вы написали для GPT-4 или Llama-3 8B, дают один ответ сегодня, но завтра эти большие языковые модели (LLM) могут сказать вам что-то другое. Это опасность состояния, известного как «привязка к подсказке» (prompt lock-in), рассказал порталу Datanami Луис Сезе, профессор информатики и генеральный директор OctoAI, облачной ИИ-платформы, которая позволяет заказчику запускать различные LLM. Системные подсказки задают условия и контекст для ответа, который пользователь ожидает получить от LLM. В сочетании с другими методами, такими как тонкая настройка и генерация с расширенным поиском (RAG), системные подсказки являются важнейшим инструментом для получения максимальной отдачи от LLM. Однако системные подсказки работают не так, как обычные компьютерные программы. «В обычной программе вы пишете шаги, выполняете их, и есть довольно высокая уверенность в том, что вы знаете, что эти шаги делают, — говорит Сезе. — Вы можете их протестировать и подтвердить. Разработка ПО таким образом имеет долгую историю». По его словам, подсказка — это способ заставить LLM найти в этом суперсложном, высокоразмерном латентном пространстве то, о чем вы запрашиваете, и что вы хотите, чтобы модель сделала, чтобы продолжить завершение начатого предложения. Это действительно удивительно, что мы можем получить так много от LLM с помощью такой техники, добавляет Сезе. Ее можно ...
читать далее.