مرکز تحقیقات هوش مصنوعی پارت در ادامه مسیر توسعه مدلهای زبانی فارسی، عضو هشت میلیارد پارامتری از گروه مدل زبانی «درنا» را به نسخه 2 ارتقا داد. افزایش 16 برابری ظرفیت دادههای ورودی و امکان اتصال به APIها را میتوان از مهمترین پیشرفتهای نسخه جدید این LLM دانست. در کنار این، عضو جدید گروه مدل زبانی «توکا» با عنوان اسبرت (SBert) نیز به صورت متنباز در دسترس توسعهدهندگان قرار گرفت.
مدلهای زبانی فارسی، یکی از ستونهای اصلی اکوسیستم هوش مصنوعی کشور به حساب میآیند و مرکز تحقیقات هوش مصنوعی پارت، به اهمیت این زیرساختهای حیاتی توجه ویژهای دارد. از همین رو، پارت با هدف رشد روزافزون جامعه هوش مصنوعی کشور، ابزارهای متعددی را با تمرکز بر زبان فارسی توسعه داده و به صورت متنباز عرضه کرده است که مدلهای زبانی نیز بخشی از آنها به شمار میآیند. تا به امروز، بسیاری از توسعهدهندگان داخلی موفق شدهاند با استفاده از این مدلهای زبانی، محصولات هوشمند خود را توسعه دهند و به دنیای هوش مصنوعی قدم بگذارند.
برخی از برترین LLMهای پارت در گروه مدل زبانی درنا قرار دارند که در این بین، مدل 8 میلیارد پارامتری یکی از محبوبترین آنها به حساب میآید. حال این مدل متنباز با ارتقا به نسخه 2، میزبان چندین ویژگی جدید است که دست توسعهدهندگان را برای ساخت سرویسهای پیشرفتهتر باز میگذارد. یکی از مهمترین تغییرات نسخه دوم، افزایش 16 برابری طول دادههای ورودی (Context length) است که ظرفیت مدل را از 8 هزار به 128 هزار توکن میرساند. این افزایش چشمگیر توکنها باعث میشود مدل بتواند پرسشهای طولانیتری را دریافت کند و عملکرد دقیقتری را در پاسخهای طولانی به پرسشهای مخاطبان از خود به نمایش بگذارد.
علاوهبر این، توسعهدهندگان این امکان را دارند تا نسخه جدید این مدل زبانی را به سرویسهای ثالث و APIهای مختلف متصل کنند. برای مثال، یک سرویس چتبات هوشمند میتواند با اتصال به API ساعت جهانی، در پاسخ به درخواست کاربر، ساعت دقیق هر یک از نقاط مختلف جهان را به اطلاع او برساند. این تنها یکی از پتانسیلهای نامحدودی است که چتباتها و دستیارهای هوشمند میتوانند با استفاده از نسخه دوم مدل 8 میلیاردی درنا در اختیار کاربران خود قرار دهند.
جدیدترین نسخه LLM هشت میلیارد پارامتری از گروه مدل زبانی درنا، مراحل ارزیابی خود را از طریق سنجه Persian LLM Leaderboard پارت طی کرده و نتیجه آزمون عملکرد این مدل، هماکنون از طریق درگاه هاگینگفیس قابل مشاهده و مقایسه است.
ارمغان توکا برای توسعهدهندگان شخصی و استارتاپها؛ «اسبرت» متنباز شد
یکی از دغدغههای مهم توسعهدهندگان شخصی و کسبوکارهای کوچک و نوپا، کمبود منابع سختافزاری برای استفاده از مدلهای زبانی پیشرفته است. اکثر مدلهای زبانی بزرگ، برای فعالیت به زیرساختهای پردازشی قدرتمند و پرهزینهای وابسته هستند که در اکثر مواقع، تهیه آن برای توسعهدهندگان سرویسهای هوشمند مقدور نیست. پارت برای رفع این چالش، یک مدل زبانی فارسی قدرتمند و در عین حال کمحجم از گروه زبانی «توکا» را بهصورت متنباز در اختیار توسعهدهندگان قرار داده است. مدل زبانی «اسبرت» (SBert) از گروه مدل زبانی توکا، تلفیقی از کارایی و چالاکی است که حتی بر روی سیستمهای خانگی نیز قابل پیادهسازی است.
تمامی سرویسهای چتبات، فارغ از نوع فعالیت و یا استفاده از مدلهای فارسی و خارجی، میبایست از این دسته از مدلهای زبانی استفاده کنند. حال توکا این امکان را فراهم کرده تا توسعهدهندگان بتوانند با منابع محدود و به صورت لوکال، از این مدل در زمینه RAGها و چتباتهای پاسخگو به پرسشهای محدود و متداول (FAQ) استفاده کنند.
LLM هشت میلیارد پارامتری از گروه درنا و مدل اسبرت توکا، هماکنون از طریق این لینک قابل دسترسی هستند و شما میتوانید این مدلها را به صورت متنباز دریافت کنید.