مسیر رشد مدل‌های زبانی پارت ادامه دارد / نسخه دوم عضو هشت میلیاردی گروه مدل زبانی «درنا» متن‌باز شد

LLMهای پارت در گروه مدل زبانی درنا

 مرکز تحقیقات هوش مصنوعی پارت در ادامه مسیر توسعه مدل‌های زبانی فارسی، عضو هشت میلیارد پارامتری از گروه مدل زبانی «درنا» را به نسخه 2 ارتقا داد. افزایش 16 برابری ظرفیت داده‌های ورودی و امکان اتصال به APIها را می‌توان از مهم‌ترین پیشرفت‌های نسخه جدید این LLM دانست. در کنار این، عضو جدید گروه مدل زبانی «توکا» با عنوان اس‌برت (SBert) نیز به صورت متن‌باز در دسترس توسعه‌دهندگان قرار گرفت.

مدل‌های زبانی فارسی، یکی از ستون‌های اصلی اکوسیستم هوش مصنوعی کشور به حساب می‌آیند و مرکز تحقیقات هوش مصنوعی پارت، به اهمیت این زیرساخت‌های حیاتی توجه ویژه‌ای دارد. از همین رو، پارت با هدف رشد روزافزون جامعه هوش مصنوعی کشور، ابزارهای متعددی را با تمرکز بر زبان فارسی توسعه داده و به صورت متن‌باز عرضه کرده است که مدل‌های زبانی نیز بخشی از آنها به شمار می‌آیند. تا به امروز، بسیاری از توسعه‌دهندگان داخلی موفق شده‌اند با استفاده از این مدل‌های زبانی، محصولات هوشمند خود را توسعه دهند و به دنیای هوش مصنوعی قدم بگذارند.

برخی از برترین LLMهای پارت در گروه مدل زبانی درنا قرار دارند که در این بین، مدل 8 میلیارد پارامتری یکی از محبوب‌ترین آنها به حساب می‌آید. حال این مدل متن‌باز با ارتقا به نسخه 2، میزبان چندین ویژگی جدید است که دست توسعه‌دهندگان را برای ساخت سرویس‌های پیشرفته‌تر باز می‌گذارد. یکی از مهم‌ترین تغییرات نسخه دوم، افزایش 16 برابری طول داده‌های ورودی (Context length) است که ظرفیت مدل را از 8 هزار به 128 هزار توکن می‌رساند. این افزایش چشمگیر توکن‌ها باعث می‌شود مدل بتواند پرسش‌های طولانی‌تری را دریافت کند و عملکرد دقیق‌تری را در پاسخ‌های طولانی به پرسش‌های مخاطبان از خود به نمایش بگذارد.

علاوه‌بر این، توسعه‌دهندگان این امکان را دارند تا نسخه جدید این مدل زبانی را به سرویس‌های ثالث و APIهای مختلف متصل کنند. برای مثال، یک سرویس چت‌بات هوشمند می‌تواند با اتصال به API ساعت جهانی، در پاسخ به درخواست کاربر، ساعت دقیق هر یک از نقاط مختلف جهان را به اطلاع او برساند. این تنها یکی از پتانسیل‌های نامحدودی است که چت‌بات‌ها و دستیارهای هوشمند می‌توانند با استفاده از نسخه دوم مدل 8 میلیاردی درنا در اختیار کاربران خود قرار دهند.

جدیدترین نسخه LLM هشت میلیارد پارامتری از گروه مدل زبانی درنا، مراحل ارزیابی خود را از طریق سنجه Persian LLM Leaderboard پارت طی کرده و نتیجه آزمون عملکرد این مدل، هم‌اکنون از طریق درگاه هاگینگ‌فیس قابل مشاهده و مقایسه است.

Persian LLM Leaderboard

ارمغان توکا برای توسعه‌دهندگان شخصی و استارتاپ‌ها؛ «اس‌برت» متن‌باز شد

یکی از دغدغه‌های مهم توسعه‌دهندگان شخصی و کسب‌وکارهای کوچک و نوپا، کمبود منابع سخت‌افزاری برای استفاده از مدل‌های زبانی پیشرفته است. اکثر مدل‌های زبانی بزرگ، برای فعالیت به زیرساخت‌های پردازشی قدرتمند و پرهزینه‌ای وابسته هستند که در اکثر مواقع، تهیه آن برای توسعه‌دهندگان سرویس‌های هوشمند مقدور نیست. پارت برای رفع این چالش‌، یک مدل زبانی فارسی قدرتمند و در عین حال کم‌حجم از گروه زبانی «توکا» را به‌صورت متن‌باز در اختیار توسعه‌دهندگان قرار داده است. مدل زبانی «اس‌برت» (SBert) از گروه مدل زبانی توکا، تلفیقی از کارایی و چالاکی است که حتی بر روی سیستم‌های خانگی نیز قابل پیاده‌سازی است.

تمامی سرویس‌های چت‌بات، فارغ از نوع فعالیت و یا استفاده از مدل‌های فارسی و خارجی، می‌بایست از این دسته از مدل‌های زبانی استفاده کنند. حال توکا این امکان را فراهم کرده تا توسعه‌دهندگان بتوانند با منابع محدود و به صورت لوکال، از این مدل در زمینه RAGها و چت‌بات‌های پاسخگو به پرسش‌های محدود و متداول (FAQ) استفاده کنند.

LLM هشت میلیارد پارامتری از گروه درنا و مدل اس‌برت توکا، هم‌اکنون از طریق این لینک قابل دسترسی هستند و شما می‌توانید این مدل‌ها را به صورت متن‌باز دریافت کنید.

این مطلب را با دوستان خود به اشتراک بگذارید: