tech

أفضل 9 LLMS المحلي/غير المتصل يمكنك تجربتها الآن

من خلال LLMs الكمية المتوفرة الآن على Luggingface ، والنظم الإيكولوجية AI مثل H20 و Text Gen و GPT4ALL ، مما يتيح لك تحميل أوزان LLM على جهاز الكمبيوتر الخاص بك ، فلديك الآن خيار للحصول على منظمة العفو الدولية المجانية والمرنة والآمنة. فيما يلي تسعة من أفضل LLMs المحلية/غير المتصلة يمكنك المحاولة الآن!

1

Hermes 2 Pro GPTQ


روبوت منظمة العفو الدولية بجوار شخص يكتب على الكمبيوتر المحمول
زينيترون/Tero Vesalainen/Shutterstock

Hermes 2 Pro هو نموذج لغة حديثة تم ضبطه بواسطة Nous Research. يستخدم إصدارًا محدثًا وتنظيفًا من مجموعة بيانات OpenHermes 2.5 ، إلى جانب مجموعة بيانات دالة تم تقديمها حديثًا ومجموعة بيانات وضع JSON في الشركة. يعتمد هذا النموذج على بنية 7B Mistral وتم تدريبها على 1،000،000 تعليمات/محادثات من جودة GPT-4 أو أفضل ، في المقام الأول ، بيانات اصطناعية.

نموذج

Hermes 2 Pro GPTQ

حجم النموذج

7.26 جيجابايت

حدود

7 مليارات

الكمية

4 بت

يكتب

خطأ

رخصة

Apache 2.0

Hermes 2 Pro on Mistral 7B هو نموذج Hermes الرائد الجديد ، حيث يقدم أداءً محسّنًا عبر مختلف المعايير ، بما في ذلك Agiveal و BigBench التفكير و GPT4ALL و PROVENTFULQA. إن قدراتها المحسّنة تجعلها مناسبة لمجموعة واسعة من مهام معالجة اللغة الطبيعية (NLP) ، مثل توليد الكود ، وإنشاء المحتوى ، وتطبيقات الذكاء الاصطناعي للمحادثة.

تحميل: Hermes 2 Pro GPTQ عبر الوجه المعانقة

2

Zephyr 7b بيتا

Zephyr هي سلسلة من نماذج اللغة المدربين على العمل كمساعدين مفيدين. Zephyr-7B-Beta هو النموذج الثاني في السلسلة ، تم ضبطه من Mistral-7B-V0.1 باستخدام تحسين التفضيل المباشر (DPO) على مزيج من مجموعات البيانات الاصطناعية المتاحة للجمهور.

نموذج

Hermes 2 Pro GPTQ

حجم النموذج

7.26 جيجابايت

حدود

7 مليارات

الكمية

4 بت

يكتب

خطأ

رخصة

Apache 2.0

من خلال إزالة المحاذاة المدمجة لمجموعات بيانات التدريب ، يوضح Zephyr-7B-Beta أداءً محسّنًا على معايير مثل MT-Bench ، مما يعزز مساعدتها في مختلف المهام. ومع ذلك ، قد يؤدي هذا التعديل إلى توليد النص الإشكالي عند المطالبة بطرق معينة.

تحميل: Zephyr 7b Beta عبر الوجه المعانقة

3

فالكون ترشد GPTQ


الشخص الذي يتتبع إنفاقه على جدول بيانات
تشاي تي / Shutterstock

تعتمد هذه النسخة الكمية من Falcon على الهندسة المعمارية فقط التي يتم ضبطها على رأس طراز Tii Raw Falcon-7B. تم تدريب طراز Falcon الأساسي باستخدام رموز مميزة تبلغ 1.5 تريليون من الرموز التي يتم الحصول عليها عبر الإنترنت العام. كنموذج يعتمد على تعليمات فقط الترميز المرخص له بموجب Apache 2 ، يعد Falcon Addruct مثاليًا للشركات الصغيرة التي تبحث عن نموذج لاستخدامه في ترجمة اللغة وإدخال البيانات.

نموذج

Falcon-7B-instruct

حجم النموذج

7.58 جيجابايت

حدود

7 مليارات

الكمية

4 بت

يكتب

فالكون

رخصة

Apache 2.0

ومع ذلك ، فإن هذا الإصدار من Falcon ليس مثاليًا للضبط بشكل جيد وهو للاستدلال فقط. إذا كنت ترغب في ضبط فالكون بشكل جيد ، فسيتعين عليك استخدام الطراز الخام ، والذي قد يتطلب الوصول إلى أجهزة التدريب على مستوى المؤسسات مثل NVIDIA DGX أو AMD Instinct AI Accelerators.

تحميل: Falcon-7B-instruct عبر الوجه المعانقة

4

GPT4ALL-J GROOVY

GPT4ALL-J GROOVY هو نموذج فك التشفير فقط تم ضبطه بواسطة NOMIC AI ومرخص له بموجب Apache 2.0. يعتمد GPT4ALL-J Groovy على طراز GPT-J الأصلي ، والذي يُعرف أنه رائع في توليد النص من المطالبات. تم ضبط GPT4All -j Groovy كنموذج دردشة ، وهو أمر رائع لتطبيقات توليد النص السريع والإبداعي. هذا يجعل GPT4ALL-J GROOVY مثاليًا لمبدعي المحتوى في مساعدتهم في الكتابة والإبداع ، سواء كان الشعر أو الموسيقى أو القصص.

نموذج

GPT4ALL-J GROOVY

حجم النموذج

3.53 جيجابايت

حدود

7 مليارات

الكمية

4 بت

يكتب

GPT-J

رخصة

Apache 2.0

لسوء الحظ ، تم تدريب طراز GPT-J الأساسي على مجموعة بيانات في اللغة الإنجليزية فقط ، مما يعني حتى أن طراز GPT4ALL-J الذي تم ضبطه يمكنه فقط الدردشة وأداء تطبيقات توليد النص باللغة الإنجليزية.

تحميل: GPT4ALL-J GROOVY عبر الوجه المعانقة

5

Deepseek Coder V2


كمبيوتر سطح مكتب مستخدم الطاقة
gorodenkoff/Shutterstock

Deepseek Coder V2 هو نموذج لغة متقدمة يعزز قدرات الترميز والتفكير الرياضي. وهو يدعم مجموعة واسعة من لغات البرمجة ويوفر طول سياق ممتد ، مما يجعله أداة متعددة الاستخدامات للمطورين.

نموذج

Deepseek Coder V2

حجم النموذج

13 غيغابايت

حدود

33 مليار

الكمية

4 بت

يكتب

ديبسيك

رخصة

Apache 2.0

بالمقارنة مع سابقتها ، تُظهر Deepseek Coder V2 تقدمًا كبيرًا في المهام المتعلقة بالرمز ، والمنطق ، والقدرات العامة. يوسع دعم لغات البرمجة من 86 إلى 338 ويمتد طول السياق من 16K إلى 128 كيلو رموز. في التقييمات القياسية القياسية ، تتفوق على نماذج مثل GPT-4 Turbo و Claude 3 Opus و Gemini 1.5 Pro في معايير الترميز والرياضيات.

تحميل: دبلي الوجه المعانقة

6

Mixtral-8x7b


الصورة التي تصور مجموعة فريق GPT المخصصة.
Quinten epting / dall-e / makeuseof

Mixtral-8x7B هو مزيج متناثر من نماذج الخبراء (MOE) التي طورتها Mistral AI. ويضم ثمانية خبراء لكل MLP ، ويبلغ مجموعها 45 مليار معلمة. ومع ذلك ، يتم تنشيط اثنين فقط من الخبراء في الرمز المميز أثناء الاستدلال ، مما يجعله فعالًا من الناحية الحسابية وقابلة للمقارنة في السرعة والتكلفة إلى نموذج معلمة كثيف 12 مليار.

نموذج

Mixtral-8x7b

حجم النموذج

12 غيغابايت

حدود

45 مليار (8 خبراء)

الكمية

4 بت

يكتب

ميستال مو

رخصة

Apache 2.0

يدعم Mixtral طول سياق قدره 32 كيلو رموز ويتفوق على LAMA 2 70B على معظم المعايير ، مطابقة أو تجاوز أداء GPT-3.5. وهي تتقن بلغات متعددة ، بما في ذلك اللغة الإنجليزية والفرنسية والألمانية والإسبانية والإيطالية ، مما يجعلها خيارًا متعدد الاستخدامات لمختلف مهام NLP.

تحميل: mixtral-8x7b عبر الوجه المعانقة

7

معالج فيكونا غير خاضع للرقابة

Wizard-Vicuna GPTQ هو نسخة كمية من المعالج Vicuna استنادًا إلى نموذج Llama. على عكس معظم LLMs التي تم إصدارها للجمهور ، يعد Wizard-Vicuna نموذجًا غير خاضع للرقابة مع إزالة محاذاة. هذا يعني أن النموذج ليس لديه نفس السلامة والمعايير الأخلاقية مثل معظم النماذج.

نموذج

المعالج-فيكونا -30B-uncensored-gptq

حجم النموذج

16.94 جيجابايت

حدود

30 مليار

الكمية

4 بت

يكتب

لاما

رخصة

GPL 3

على الرغم من أنه من المحتمل أن يطرح مشكلة تحكم في محاذاة الذكاء الاصطناعي ، إلا أن وجود LLM غير الخاضعة للرقابة يبرز أفضل ما في النموذج من خلال السماح له بالإجابة دون أي قيود. يتيح هذا أيضًا للمستخدمين إضافة محاذاة مخصصة حول كيفية تصرف الذكاء الاصطناعي أو الإجابة بناءً على موجه معين.

تحميل: المعالج-فيكونا -30B-uncensored-GPTQ عبر الوجه المعانقة

8

orca mini-gptq


فني اختبار الكمبيوتر

هل تتطلع إلى تجربة نموذج مدرب على طريقة تعليمية فريدة؟ Orca Mini هو تنفيذ نموذج غير رسمي لأوراق أبحاث ORCA من Microsoft. تم تدريبه باستخدام طريقة التعلم والمعلم والطالب ، حيث كانت مجموعة البيانات مليئة بالتفسيرات بدلاً من المطالبات والاستجابات فقط. هذا ، من الناحية النظرية ، يجب أن يؤدي إلى طالب أكثر ذكاءً ، حيث يمكن للنموذج أن يفهم المشكلة بدلاً من مجرد البحث عن أزواج مدخلات ومخرجات مثل كيفية عمل LLMs النموذجي.

نموذج

orca mini-gptq

حجم النموذج

8.11 جيجابايت

حدود

3 مليارات

الكمية

4 بت

يكتب

لاما

رخصة

معهد ماساتشوستس للتكنولوجيا

مع وجود ثلاثة مليارات فقط ، من السهل تشغيل ORCA Mini GPTQ حتى على أنظمة أقل قوة. ومع ذلك ، لا ينبغي استخدام هذا النموذج لأي شيء محترف لأنه يولد معلومات كاذبة ، والاستجابات المتحيزة ، والهجوم. يجب استخدام هذا النموذج للتعلم وتجربة ORCA وطرقه.

تحميل: orca mini-gptq عبر الوجه المعانقة

9

Llama 2 13B Chat GPTQ

أو


امرأة في مكتب مكتب باستخدام جهاز الكمبيوتر المحمول الخاص بها مع أجهزة سطح المكتب الافتراضية المتعددة.
صورة الأرض / Shutterstock

Llama 2 هو خليفة LLAMA Original Llama LLM ، حيث يقدم تحسين الأداء والتنوع. تم ضبط متغير GPTQ للدردشة 13B لتطبيقات AI المحادثة المحسّنة للحوار باللغة الإنجليزية.

نموذج

Llama 2 13B Chat GPTQ

حجم النموذج

7.26 جيجابايت

حدود

13 مليار

الكمية

4 بت

يكتب

لاما 2

رخصة

رخصة التعريف

Llama 2 مخصص للاستخدام التجاري والبحث. تتيح شروط الترخيص للشركات التي يقل عددها عن 700 مليون مستخدم للاستفادة منها دون رسوم إضافية. هذا النموذج مثالي للمؤسسات التي تبحث عن حل قوي chatbot يتطلب تدريبًا إضافيًا ضئيلًا.

تحميل: Llama 2 13B Chat GPTQ عبر الوجه المعانقة

تحتوي بعض النماذج المذكورة أعلاه على عدة إصدارات من حيث المعلمات. بشكل عام ، تعطي إصدارات المعلمات الأعلى نتائج أفضل ولكن تتطلب أجهزة أكثر قوة ، في حين أن إصدارات المعلمات المنخفضة ستولد نتائج جودة أقل ولكن يمكن تشغيلها على الأجهزة المنخفضة. إذا لم تكن متأكدًا مما إذا كان جهاز الكمبيوتر الخاص بك قادرًا على تشغيل النموذج ، فحاول الذهاب إلى إصدار المعلمة السفلي أولاً ، ثم استمر حتى تشعر أن انخفاض الأداء لم يعد مقبولًا.

مقالات ذات صلة

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock