dLLM-модель — она уделывает обычные LLM-модели и генерирует текст в 5-10 раз быстрее


Вышла первая dLLM-модель — она уделывает обычные LLM-модели и генерирует текст в 5-10 раз быстрее

Работает на основе диффузии, как генераторы изображений. Что это значит:

• Токены генерируются не поочерёдно как в LLM, а сразу все, и только потом расставляются в правильном порядке

• Первая dLLM-модель называется Mercury Coder от Inception — кодит на уровне GPT-4o, но НАМНОГО быстрее

• Технология может ускорить классические модели — объёмные тексты будем получать В МИГ

Потестить бесплатно можно тут 



0 лайков 0 просмотров
Комментариев нет
Чтобы оставить комментарий, необходимо на сайте.