سیستمDatabricks راهاندازی DBRX را اعلام کرده است، یک مدل قدرتمند جدید و متنباز زبان بزرگ که ادعا میکند با پیشی گرفتن از گزینههای موجود مانند GPT-3.5 در معیارهای صنعتی، نوار جدیدی را برای مدلهای باز ایجاد میکند.
این شرکت می گوید مدل 132 میلیارد پارامتری DBRX از LLM های منبع باز محبوب مانند LLaMA 2 70B، Mixtral و Grok-1 در درک زبان، برنامه نویسی و وظایف ریاضی پیشی می گیرد.
حتی در برخی معیارها از مدل منبع بسته کلود Anthropic بهتر است.DBRX عملکرد پیشرفتهای را در بین مدلهای باز در وظایف کدنویسی نشان داد و مدلهای تخصصی مانند CodeLLaMA را با وجود اینکه یک LLM همه منظوره است شکست داد.
همچنین تقریباً در تمام معیارهای ارزیابی شده با GPT-3.5 مطابقت داشت یا از آن فراتر رفت.قابلیتهای پیشرفته به لطف معماری ترکیبی کارآمدتر متخصصان است که علیرغم داشتن پارامترهای فعال کمتر، DBRX را تا 2 برابر سریعتر از LLaMA 2 70B میکند.
مجله هوش مصنوعی عصر گویش: تلگرام | بله
@asrgooyeshpardaz