كيف ؟

كيفية تثبيت أحدث نماذج اللغة الكبيرة (LLMS) محليًا على جهاز Mac الخاص بك

في السنوات الأخيرة ، أصبحت نماذج اللغة الكبيرة (LLMs) شائعة بشكل متزايد لقدرتها على توليد نص يشبه الإنسان والمساعدة في مهام مختلفة. ليست جميع الطرز مفتوحة المصدر ، ولكن كل شركة تكنولوجيا كبيرة لديها نسخة تسمح للمستخدمين بتنزيلها وتشغيلها.

يمكن أن يكون تشغيل هذه النماذج محليًا على جهاز Mac مفيدًا لأسباب الخصوصية والتكلفة. في هذه المقالة ، سنستكشف كيفية تثبيت وتشغيل LLMs باستخدام أولاما، أداة قوية للمطورين والمستخدمين المبتدئين ، ومناقشة بعض أدوات واجهة المستخدم الرسومية التي يمكن أن تبسيط العملية لأولئك الذين يفضلون عدم استخدام محطة MacOS.

وبهذه الطريقة ، يمكنك الوصول إلى أحدث نماذج نص AI من Google و Microsoft و META وغيرها من شركات الذكاء الاصطناعى مثل Mistral و Deepseek.

مفهوم LLM مميز صورة

فهم LLMS: ماذا تعني المعلمات؟

قبل الغوص في عملية التثبيت ، دعنا نوضح ما هي أرقام مثل “7 ب” أو “14 ب“يعني عند الإشارة إلى LLMs. تمثل هذه الأرقام حجم النموذج من حيث حدود (مليارات) ، والتي هي أساسا “المقابض والمفاتيح” التي يتم ضبطها أثناء التدريب.

يتيح عدد أكبر من المعلمات للنموذج التقاط أنماط وعلاقات أكثر تعقيدًا في اللغة ، مما قد يؤدي إلى أداء أفضل. ومع ذلك ، من المهم ملاحظة أن المزيد من المعلمات لا تضمن دائمًا نتائج أفضل ؛ تلعب جودة بيانات التدريب والموارد الحسابية المتاحة للنموذج أدوارًا مهمة.

متطلبات النظام

سترغب في التأكد من أن جهاز Mac الخاص بك لديه المواصفات التالية على الأقل:

  • MacOS 10.15 أو أحدث (MacOS 13 من أعلى الموصى بها)
  • ما لا يقل عن 8 جيجابايت من ذاكرة الوصول العشوائي (16 جيجابايت أو أعلى الموصى بها)
  • 10 جيجابايت من التخزين المجاني (الدقيقة مطلوبة لأصغر النماذج ؛ النماذج الأكثر تقدماً مع عدد أقصى عدد من المعلمات تصل إلى حوالي 700 جيجابايت)
  • معالج Intel أو Apple Silicon متعدد النواة (M2 أو أفضل)

تثبيت Ollama

أولاما هي أداة مفتوحة المصدر تتيح لك تشغيل LLMs مباشرة على الجهاز المحلي الخاص بك. إليك كيفية البدء:

  1. تحميل Ollama: زيارة أولاما موقع ويب وقم بتنزيل إصدار MacOS. يمكنك أيضًا استخدام Homebrew للتثبيت عن طريق التشغيل brew install ollama في المحطة الخاصة بك.
صفحة تنزيل Ollama
  1. تثبيت Ollama: إذا قمت بتنزيل المثبت ، ثم انقر نقرًا مزدوجًا فوقه ، واتبع معالج الإعداد. إذا كنت تستخدم homebrew ، تخطي إلى الخطوة 4.
شاشة إعداد Ollama ، انقر فوق التالي
  1. الخطوة التالية للمثبت هي ببساطة النقر فوق ثَبَّتَ زر ، والذي سيطلب كلمة مرور المسؤول.
واجهة واجهة المستخدم الرسومية لإعداد Ollama مع زر التثبيت
  1. تشغيل أولاما: افتح محطة وابدأ Ollama كخدمة مع brew services start ollama. هذا سيجعل أولاما متاحًا في http://localhost:11434/.
  2. تنزيل وتشغيل نموذج: استخدم الأمر ollama pull <model-name> لتنزيل نموذج ، ثم ollama run <model-name> لتشغيله. على سبيل المثال ، لتشغيل Deepseek-R1 نموذج ، الاستخدام ollama pull deepseek-r1 تليها ollama run deepseek-r1.
  3. لتنزيل نسخة معلمة أكبر من نموذج ، ما عليك سوى إضافة قولون متبوعًا بالحجم. على سبيل المثال ، لتنزيل 14B Deepseek نموذج، سوف تستخدم Ollama Run Deepseek-R1: 14b يأمر. على موقع Ollama ، موقع الويب ، يمكنك النقر على أي من النماذج وسيظهر لك جميع الأوامر المختلفة لكل إصدار.
بدء Llama 3.2 باستخدام Ollama
تثبيت Metas Llama 32 LLM

يمكنك العثور على القائمة الكاملة لـ نماذج لأولاما هنا. يمكنك أيضًا استخدام الأمر الثاني كما هو موضح أعلاه ، وإذا لم يتم تثبيته بالفعل ، فسوف يسحب النموذج أولاً ثم تشغيله.

تثبيت Llama 3.2 في المحطة

الآن عندما ترى الأسهم الثلاثة اليمنى (>>>) ، يمكنك البدء في كتابة الأوامر إلى النموذج.

النافذة الطرفية مع سؤال إلى Ollama LLM

هذا كل شيء! يمكنك الآن التفاعل محليًا مع LLM الخاص بك ولا داعي للقلق بشأن التكاليف ، أو الإفراط في استخدامها ، أو أنه يمكن للأشخاص الآخرين قراءة ما تكتبه. هذا أمر رائع إذا كان لديك بعض الموضوعات الحساسة أو الشخصية التي ترغب في مناقشتها مع AI LLM ، ولكن لا تريد شركة تقنية كبيرة تقرأ أفكارك.

باستخدام أدوات واجهة المستخدم الرسومية مع Ollama

على الرغم من أن Ollama قوي وفعال للمطورين ، فقد يفضل بعض المستخدمين واجهة مستخدم رسومية (GUI) للتفاعل مع LLMS. فيما يلي بعض الأدوات التي يمكن أن توفر واجهة واجهة المستخدم الرسومية لأولاما:

  • أولاما واجهة المستخدم الرسومية: هذا تطبيق مجاني ومفتوح المصدر لمستخدمي MacOS الذي تم إنشاؤه باستخدام Swiftui. إنه يوفر واجهة جميلة وهو خيار ممتاز لأولئك الذين يرغبون في الوصول إلى LLMs محليًا دون استخدام المحطة.
  • Ollama UI: واجهة مستخدم ويب بسيطة تستند إلى HTML والتي تتيح لك تحديد النماذج والتفاعل معها مباشرة في متصفحك. ويشمل أيضًا امتداد كروم لسهولة الوصول إليه.
  • chatbox ai: هذا هو الأسهل للمبتدئين والطويلة التي أشرح كيفية استخدامها أدناه. لاحظ أنك لا تحتاج إلى الحصول على خدمة Chatbox AI ، وهو اشتراك يقدمونه حتى تتمكن من الوصول إلى جميع LLMs دون الحاجة إلى تثبيت Ollama بنفسك.

لاستخدام واجهة AI Bostbox ، انتقل إلى صفحة التنزيل واحصل على الإصدار ل MAC الخاص بك.

Poxbox AI الصفحة الرئيسية

بعد ذلك ، افتح المثبت وقم بتشغيل البرنامج. على الشاشة الأولى ، ستظهر نافذة منبثقة تسأل كيف تريد استخدام chatbox ai.

مربع الدردشة AI استخدم مربع حوار مفتاح API الخاص بي

سترغب في النقر فوق استخدم مفتاح API الخاص بي / النموذج المحلي زر.

اختر Ollama عند تثبيت chatbox ai

التالي ، انقر فوق Ollama API كمزود نموذج الذكاء الاصطناعى.

chatbot ai connect مع Ollama API

يجب أن يكتشف Tatbox AI تلقائيًا أن Ollama يعمل ويقوم بتعيين مضيف API على القيمة الافتراضية ، وهو عنوان IP الخاص بك ورقم المنفذ 11434. ليس عليك تغيير أي شيء هنا. ضمن النموذج ، يجب أن ترى النماذج التي قمت بتثبيتها سابقًا باستخدام Terminal. في حالتي ، إنها لاما 3.2 نموذج.

نشرة الدردشة AI نافذة دردشة جديدة مع LLM

مرة أخرى على الصفحة الرئيسية للتطبيق ، انقر فوق فقط الدردشة أو دردشة جديدة وتأكد من تحديد النموذج الصحيح أسفل أسفل اليمين. يمكنك تغيير النموذج في أي وقت ، لكنني أوصي بإنشاء محادثة جديدة لكل طراز تستخدمه حتى تتمكن من رؤية الاختلافات بسهولة.

أدوات بديلة لتشغيل LLMS محليًا

إذا كنت تبحث عن بدائل لـ Ollama أو تفضل تجربة أكثر سهولة في البداية من البداية ، استوديو LM هو خيار ممتاز آخر. يوفر واجهة بديهية لاستكشاف واستخدام نماذج الذكاء الاصطناعي المختلفة ، مما يتيح لك تنزيل النماذج وتشغيلها بسهولة. يتوفر LM Studio على Linux و Mac و Windows ويقدم ميزات مثل تخصيص المعلمة النموذجية وتاريخ الدردشة. إنه مجاني في الوقت الحالي ، ولهذا السبب أوصي به على اشتراك خدمة Chatbox AI.

LM Studio للصفحة الرئيسية لماك

خاتمة

سيكون تشغيل نماذج اللغة الكبيرة محليًا على جهاز Mac أمرًا مهمًا لأي شخص يتطلع إلى الحصول على مزيد من التحكم في تطبيقات الذكاء الاصطناعى الخاص به وإعطاء الأولوية خصوصية البيانات. مع الأدوات مثل Ollama و GUI Frontends المذكورة مما يجعل من السهل دمج LLMs في سير العمل الخاص بك ، يمكنك فتح إمكانيات جديدة بشكل آمن للإنتاجية والإبداع.

ومع ذلك ، فإن البدء في نشر LLM المحلي يتطلب بعض الفهم للمعلمات وكيف تؤثر على أداء هذه النماذج على أجهزتك المحددة. أفضل طريقة لمعرفة ذلك هي من خلال اللعب مع النماذج المختلفة لمعرفة أي شخص يعطيك أفضل النتائج. بمجرد أن تفهم هذا المفهوم ، ستتمكن من اتخاذ قرارات أفضل حول النماذج التي يجب استخدامها وكيفية تحسين أدائها لاحتياجاتك الخاصة.

الوظائف ذات الصلة

  • كيفية إصلاح خطأ 500 خادم داخلي على الحرف AI

  • كيفية إخفاء أو إزالة copilot من شريط المهام Windows 11

  • ما هو Windows AI Copilot؟

  • كيفية توصيل براعم Samsung Galaxy بجهاز Windows أو Mac Computer

  • كيفية إعادة تسمية أجهزة Bluetooth في Windows و Android و iOS و Mac

مقالات ذات صلة

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock