DeepSeek R1: LLM с открытым исходным кодом с производительностью наравне с моделью o1 от OpenAI
В течение нескольких дней я потратил значительную часть своего времени на то, чтобы опробовать новый китайский ИИ-чатбот Deepseek R-1. За последние несколько дней он привлек к себе много внимания, и на то есть веские причины: чатбот действительно способный - иногда даже лучше, чем ChatGPT. И он дешевый. Очень дешевый.
Несмотря на то, что он появился относительно недавно, он уже успел зарекомендовать себя в сфере ИИ как рассуждающая модель с открытым исходным кодом. По многим показателям производительность находится на одном уровне с моделью o1 от OpenAI, а стоимость постоянного использования чата и API значительно ниже, чем у конкурентов.
Как человек, который любит пробовать новейшие ИИ-инструменты, я сразу же приступил к работе и пользовался Deepseek R-1 в течение нескольких дней. Удивительно, но он ни разу не завис, не тормозил и, что еще более удивительно, ни разу не попросил меня купить подписку и не сказал, что я превысил свой ежедневный лимит использования.
Что такое Deepseek R-1?
Deepseek R-1 - это новейшая рассуждающая модель от китайской ИИ-лаборатории DeepSeek. Она имеет полностью открытый исходный код, то есть любой желающий может взять базовую кодовую базу, адаптировать ее и даже доработать под свои нужды.С технической точки зрения Deepseek R-1 (или просто R1) базируется на большой базовой модели под названием DeepSeek-V3. Затем лаборатория усовершенствовала эту модель с помощью комбинации контролируемой тонкой настройки (SFT) на высококачественных данных с человеческими метками и обучения с подкреплением (RL).
Также они представили такие вариации, как R1-Zero, которая обходится без данных тонкой настройки с человеческими метками и пытается научиться «рассуждать» исключительно с помощью RL и «вычислений в тестовом времени».
Тот факт, что Deepseek обнародовала эти модели и подробный технический отчет, говорит о желании поделиться полученными знаниями, что делает их интригующим примером для других ИИ-лабораторий, которые держат внутренние исследования под строгим секретом.
Что еще более удивительно, так это то, что эта модель на самом деле появилась как побочный проект, чтобы использовать дополнительные графические процессоры.
DeepSeek R1: LLM с открытым исходным кодом с производительностью наравне с моделью o1 от OpenAI
Если серьезно, то эти инженеры безумно хороши. Побочный проект, который теперь конкурирует с языковыми моделями стоимостью в миллиард долларов? Это не просто впечатляет, это гениально. Это тот вид изобретательности, который заставляет задуматься, подают ли в их кафетерии креатив на завтрак.
Как Deepseek R-1 по сравнению с o1
Итак, как же Deepseek R-1 конкурирует с o1 от OpenAI и другими ведущими моделями?Короткий ответ: очень хорошо.
Собственные бенчмарки Deepseek показывают, что R1 и o1 находятся примерно на одном уровне во многих категориях, от математики (например, бенчмарк AIME) до задач программирования (например, Codeforces) и даже продвинутых наборов QA, таких как GPQA Diamond. На самом деле, разница в производительности часто составляет всего несколько процентных пунктов.
DeepSeek R1: LLM с открытым исходным кодом с производительностью наравне с моделью o1 от OpenAI
Другие крупные игроки, такие как Gemini 2.0 от Google и Claude 3.5 от Anthropic, также вступают в борьбу. Некоторые тесты показывают, что эти модели находятся на одном уровне производительности с o1, но преимущество R1 в стоимости и доступность открытого исходного кода делают ее сильным соперником.
Если учесть, что цена токена R1 в 30 раз дешевле, чем у o1, многие разработчики и опытные пользователи обратили на нее пристальное внимание.
Вот сравнение моделей DeepSeek-R1-Zero и OpenAI o1 в бенчмарках, связанных с рассуждениями.
DeepSeek R1: LLM с открытым исходным кодом с производительностью наравне с моделью o1 от OpenAI
Когда в бенчмарке AIME используется мажоритарное голосование, производительность DeepSeek-R1-Zero возрастает с 71,0 до 86,7 %, превышая показатели OpenAI-o1-0912.
Подробнее о технических характеристиках DeepSeek R1 можно узнать
Для просмотра ссылки необходимо нажать
Вход или Регистрация
.R1 - это очень дешево
За все время, что я пробовал чатбота на
Для просмотра ссылки необходимо нажать
Вход или Регистрация
, я ни разу не столкнулся с оплатой или лимитом использования. Возможно, у Deepseek есть скрытый лимит использования, но если это так, то я его не достиг.Кроме того, он совсем не тормозил. Многие ИИ-чаты могут снижать производительность, если вы пытаетесь слишком сильно их нагрузить или входите в систему в часы пик. R1 работал быстро от начала и до конца.
Но предположим, что вы разработчик или основатель стартапа, желающий интегрировать большую языковую модель в свой продукт. Пока что модели OpenAI серии o1 или GPT стоят первыми в списке лучших вариантов, но стоимость API может быстро увеличиться. Согласно данным Deepseek, вы можете использовать API R1 за сумму, в разы меньшую, чем вы заплатите OpenAI.
- $0,14 за миллион входных токенов (попадание в кэш)
- $0,55 за миллион входных токенов (пропуск кэша)
- $2,19 за миллион выходных токенов
Посмотрите на это визуальное сравнение моделей R1 от DeepSeek и OpenAI.
DeepSeek R1: LLM с открытым исходным кодом с производительностью наравне с моделью o1 от OpenAI
Время покажет, долго ли продержатся бесплатные предложения Deepseek для постоянных пользователей чата. Большой наплыв новых пользователей может создать большую нагрузку на серверы, и типичная бизнес-логика подскажет: «Теперь нужно монетизировать». Но пока R1 остается бесплатной для повседневного использования.
Доступ к API DeepSeek R1
Перед тем как выдать ответ, модель генерирует цепочку мыслей (CoT), чтобы повысить точность своих ответов. API позволяет пользователям получить доступ к этому содержимому CoT, что дает возможность просматривать, отображать и анализировать процесс рассуждений, лежащий в основе ответов модели.Вот пример на Python, показывающий, как использовать API для одно- и многораундовых бесед:
from openai import OpenAI
# Initialize the client
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
# Access the reasoning and final answer
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
# Print outputs
print("Reasoning:", reasoning_content)
print("Answer:", content)
# Round 2
messages.append({'role': 'assistant', 'content': content})
messages.append({'role': 'user', 'content': "How many Rs are there in the word 'strawberry'?"})
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
# Access and print results for Round 2
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
print("Reasoning:", reasoning_content)
print("Answer:", content)
Прежде чем использовать DeepSeek-Reasoner, убедитесь, что у вас установлена последняя версия OpenAI SDK:
pip3 install -U openai
Вот параметры API:
- max_tokens (входной параметр) устанавливает максимальную длину финального ответа после генерации CoT. По умолчанию - 4 000 токенов, максимум - 8 000 токенов.
- reasoning_content (выходной параметр) - процесс рассуждения (CoT), доступный как часть выводимой структуры.
- content (выходной параметр) - окончательный ответ, выданный моделью.
Следует иметь в виду несколько моментов:
- Чтобы обеспечить бесперебойную работу API, при отправке нового запроса удалите поле reasoning_content из входных сообщений.
- CoT позволяет пользователям получить более глубокое представление о процессе рассуждений модели, что делает его ценным инструментом для исследований и анализа.
Недавно Сэм Альтман столкнулся с обратной реакцией. Он, как известно, колеблется между тем, чтобы превозносить AGI как следующее большое экзистенциальное событие, и тем, чтобы призвать всех успокоиться, потому что AGI не появится так быстро, как мы думаем.
Однако темпы прорыва ИИ, похоже, не позволяют успокоиться. С выходом Deepseek R-1 мы видим, насколько непредсказуема эта область. Не только «большая тройка» (OpenAI, Google, Anthropic) может создавать высококлассные модели. Более мелкие или менее известные игроки могут появиться из ниоткуда и выпустить на рынок модель уровня o1.
Соперничество между Китаем и США в области развития ИИ также становится все более интригующим. Deepseek показала, что возможно при более открытом и прозрачном подходе. Является ли эта прозрачность и дешевизна модели стратегическим бизнес-ходом, философской позицией в отношении ИИ как общественного блага или политическим преимуществом, пока неясно.
Вы можете бесплатно пообщаться с DeepSeek R-1 на
Для просмотра ссылки необходимо нажать
Вход или Регистрация
или изучить документацию по API
Для просмотра ссылки необходимо нажать
Вход или Регистрация
. Бенчмарки, технические подробности и файлы для загрузки моделей можно найти в
Для просмотра ссылки необходимо нажать
Вход или Регистрация
.
Для просмотра ссылки необходимо нажать
Вход или Регистрация