توکا؛ اولین مدل زبانی BERT Large فارسی

توکا، یک مدل زبانی منبع‌باز فارسی است که به توسعه‌دهندگان فرصت ایجاد ابزارهای هوشمند تعاملی و به کسب‌وکارها امکان دستیابی به راهکارهای سفارشی‌سازی‌شده پیشرو مبتنی بر هوش مصنوعی را می‌دهد.

ظرفیت ۹۰+ میلیارد توکن

آموزش‌دیده با ۵۰۰+ گیگابایت داده

سازگار با زبان فارسی

چرا مدل زبانی توکا را توسعه دادیم؟

داشتن مدل زبانی بومی فارسی برای توسعه ابزارهای هوشمند تعاملی فارسی‌زبانان، نیاز مبرم توسعه‌دهندگان است و مرکز تحقیقات هوش مصنوعی پارت برای پاسخ به این نیاز و نیز ایجاد همکاری بیشتر در زیست‌بوم هوش مصنوعی فارسی، نسخه متن‌باز مدل زبانی توکا فارسی را در دسترس همگان قرار داده است.

لطفا برای دریافت لینک مدل زبانی توکا ایمیل خود را وارد کنید

لطفا در صورت عدم دریافت لینک فولدر اسپم را نیز چک کنید و یا به آدرس تلگرام که در پایین صفحه آمده پیام دهید.

اهدافی که عملی کرده‌ایم

توسعۀ مدل زبانی توکا مبتنی بر مدل BERT large از دستاوردهایی است که شرکت دانش‌بنیان پارت به پشتوانۀ توانایی نیروی متخصص و تجربه چندین‌ساله خود در پروژه‌های خرد و کلان متعدد کسب کرده است. این دستاورد در کنار اهداف دیگری قرار می‌گیرد که در این سال‌ها مجموعه پارت دانش‌بنیان به آن‌ها دست یافته است.

ابزارهایی که با توکا پارت توسعه داده‌ایم

در صورت دریافت نکردن ایمیل با پشتیبانی ما در تلگرام تماس بگیرید:

تماس با پشتیبانی در تلگرام