التخطي إلى المحتوى الرئيسي

تنصيب اطار Ollama وتشغيل LLM محلياً


مرحباً انا مازن اعمل في شركة scopead.com ساصحبكم اليوم في رحلة تقنية مختصة بتشغيل نماذج الذكاء الاصطناعي مفتوحة المصدر على جهازك الشخصي, هناك العديد من الطرق التي يمكننا من خلالها تشغيل نماذج LLMs مفتوحة المصدر محلياً، ولكني أرغب في التركيز على طريقتي المفضلة باستخدام اطار عمل Ollama. يمكننا استخدام نماذج Ollama المختارة مسبقًا، أو استخدام نماذج مخصصة.

Ollama

فوائد تشغيل نماذج محليا على جهازك:

  • يُعد تشغيل نماذج الذكاء الاصطناعي مفتوحة المصدر خطوة أساسية في استقلالية تكنولوجيا المعلومات وديموقراطية المعرفة. تُمكن هذه النماذج المستخدمين من تخصيص البيانات وتهئية النموذج دون الحاجة إلى الاعتماد على طرف ثالث أو دفع الاشتراكات المكلفة. بالطبع من المزايا الرئيسية هي خصوصية البيانات، حيث تبقى البيانات آمنة داخل جهازك ولا تخرج منه، مما يقلل من المخاطرالأمنية. االسيطرة الكاملة على النماذج مما يعني إمكانية تخصيصه لتلبية الاحتياجات الخاصة بكل مستخدم، وهو ما يقوم بتعزيز الإبداع والابتكار. بالإضافة إلى ذلك، المرونة في التعديل والتحسين المستمر يجعل من هذه النماذج بيئة خصبة للتعلم والتطور، ويشجع على التعاون والتشارك المعرفي بين المطورين حول العالم. إنها ليست مجرد أدوات، بل هي رفاق رحلة في مسار التمكين التكنولوجي والنمو الفكري.

نماذج LLMs مفتوحة المصدر: هل الحجم مهم؟

في الوقت الحالي نشهد زيادة في نماذج المفتوحة المصدر، سواء كانت نماذج كبيرة او صغيرة. تصبح هذه النماذج مفتوحة المصدر أكثر كفاءة مع مرور الوقت. على سبيل المثال، تتطلب بعض النماذج الصغيرة امكانيات حوسبية أقل وتستهلك طاقة أقل، ولا يزال يعد أداءها جيدًا جداً بالرغم من حجمها، يمكنك أيضًا التحكم في اعداداتها وهذا قد يعطيك تجربة اكثر ملائمة لاستخدامك.

بعض النماذج المفتوحة المصدر الملحوظة والشائعة هي:

  • Llama 2 70b: نموذج عام بسعة 70 مليار معلم من ميتا.
  • Phi-2: نموذج صغير بسعة 2.7 مليار معلم من مايكروسوفت، يُعتبر قويًا بالنسبة لحجمه. يُوصى باستخدامه على الأجهزة الضعيفة.
  • Phi-3: نموذج صغير بسعة 3.8 مليار معلم وهو الاحدث من مايكروسوفت ويتميز بعمله على الاجهزة الضعيفة بكفاءة تنافس النماذج الاكبر حجما.
  • Mistral 7b: نموذج صغير بسعة 7 مليار معلم من Mistral.
  • Mixtral 8x7B: نموذج "مزيج الخبراء"، يُعتبر قويًا للغاية. كما يعرب Mistral عنه:

هناك عدد هائل من النماذج المفتوحة المصدر الأخرى، يتم تدريب كل منها على بيانات مختلفة تستخدم تقنيات مختلفة بهدف تمكينها من الأداء بشكل جيد بينما تحتفظ بأصغر حجم ممكن.

مزايا تشغيل Ollama

يحتوي على مجتمع كبير ونشط يمكنك الانضمام إليه عبر Discord.

  • يقدم نسخة Docker يمكنك تشغيلها إذا كنت تفضل عدم تثبيتها محليًا.
  • سهل الاستخدام.
  • يدعم العديد من النماذج التي يمكنك تشغيلها، ويتم إضافة نماذج جديدة باستمرار ويمكنك أيضًا استيراد نماذج مخصصة.
  • مدعوم بكثير من واجهات المستخدم مفتوحة المصدر و التي تسهل عملية استخدام النموذج كما انه يدعم النماذج متعددة الوسائط.

يمكنك العثور على المشروع على GitHub.

بالنسبة للواجهة الأمامية، سنستخدم واجهة المستخدم الويب Ollama.

Ollama local

تشغيل Ollama محليًا في 4 خطوات

  1. إعداد Ollama

يمكنك تثبيت Ollama محليًا على MacOS و Linux. يتوفر Windows في الإصدار التجريبي، أو يمكن تثبيته على Windows عبر WSL2 (Linux على Windows).

أوصي بتشغيله في حاوية Docker. يجعل ذلك من السهل أن يكون التثبيت مستقلاً عن جهازك.

كلا Ollama و Ollama Web-UI لديهما نسخة علىDocker سنستخدمهما.

ملاحظة: جميع الأوامر أدناه التي تعمل بـ ollama، تفترض أنك تستخدم Docker، وإلا قم بتجاهل الجزء "docker exec -it ollama".

متطلبات مسبقة قم بتثبيت محرك Docker على نظامك قرر ما إذا كنت ترغب في تشغيل Ollama مع أو بدون GPU:

تثبيت Ollama بدون GPU

إذا كنت ترغب في التشغيل باستخدام وحدة المعالجة المركزية الخاصة بك، وهي الطريقة الأبسط للبدء، فقم بتشغيل هذا الأمر:

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

سيقوم هذا بتشغيل حاوية Docker مع Ollama، ويقوم بتعيين مجلد للنماذج التي سنستخدمها وتعيين منفذ (11434) يمكننا الاتصال به من الواجهة الأمامية.

تثبيت Ollama مع GPU إذا كنت ترغب بدلاً من ذلك في استغلال وحدة المعالجة الرسومية الخاصة بك (وهو منطقي إذا كان لديك GPU قوي)، فافعل ما يلي:

قم بتثبيت "أدوات مكتبات NVIDIA". إذا كنت تستخدم Windows، اتبع هذا الدليل. قم بتكوين الوقت التشغيل لأدوات نيفيديا:

sudo nvidia-ctk runtime configure --runtime=docker sudo systemctl restart docker # on windows - restart the docker engine from the windows host instead

على ويندوز، تعمل الأوامر في وحدة تحكم WSL2. بدلاً من تشغيل أمر "إعادة تشغيل الدوكر"، قم ببساطة بإعادة تشغيل محرك الدوكر من المضيف في ويندوز.

ابدأ تشغيل المكتبة (مع GPU):

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

عند تشغيل النماذج، يمكنك التحقق من أن هذا يعمل عن طريق التحقق من استخدام وحدة المعالجة الرسومية أثناء عمل النموذج (على سبيل المثال، في ويندوز استخدم مدير المهام).

التحقق من تشغيل Ollama تحقق من أن حاويتك قيد التشغيل عن طريق تشغيل أمر المساعدة في Ollama. لاحظ أن "ollama" الأول هو اسم الحاوية، والثاني هو الأمر cli:

docker exec -it ollama ollama help

2. تشغيل واجهة المستخدم الويب Ollama

وفقًا للوثائق، سنقوم بتشغيل حاوية Docker لواجهة المستخدم الويب Ollama للعمل مع نسختنا من Ollama. هناك طرق أخرى، مثل استخدام docker-compose، التي يمكنك رؤيتها في الوثائق.

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v ollama-webui:/app/backend/data --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main
سيقوم هذا الأمر بتشغيل حاوية Ollama Web-UI بالإضافة إلى أمور أخرى، تشغيل حاوية Ollama Web-UI المسماة "ollama-webui"، وتعيين منفذ الحاوية 8080 إلى منفذ المضيف 3000 وتعيين مجلد لتخزين الملفات بشكل دائم.

يمكنك اختباره عن طريق الانتقال إلى http://127.0.0.1:3000/ أنشئ حسابًا (كله محلي) من خلال النقر فوق "التسجيل" وتسجيل الدخول.

  1. اختيار نموذج للتشغيل

لنتوجه إلى مكتبة نماذج Ollama ونرى النماذج المتاحة. تحتوي كل صفحة نموذج على معلومات حول النموذج، بما في ذلك رابط إلى صفحة Hugging Face مع العديد من المعلومات والموارد الإضافية.

يمكنك التفكير في Hugging Face على أنها GitHub للنماذج LLMs (لكنها أكثر من ذلك بكثير)

سنقوم بتشغيل Mixtral 8x7b الذي يُعتبر صغيرًا ولكن قويًا:

docker exec -it ollama ollama run mixtral

أول مرة تقوم بها بتشغيله، عليه أن يقوم بسحب النموذج، لذا قد يستغرق بعض الوقت اعتمادًا على حجم النموذج الذي تقوم بسحبه.

يمكننا أيضًا القيام بالشيء نفسه من خلال الواجهة الأمامية، عن طريق النقر على زر الترتيب المجاور لاختيار النموذج:

هذا يتيح لك إدارة النماذج:

  1. استخدام النموذج

قمت باختيار وضع "mixtral"، وطلبت منه كتابة قطعة مثيرة للاهتمام من الكود بلغة Python.

لطلب كتابة قطعة مثيرة للاهتمام من Python مازال يستغرق وقتًا طويلاً... ها هو الكود، في حال كنت ترغب في معرفة ما إذا كنت تستطيع العثور على المشكلة بنفسك 😊.

لا داعي للقلق! دعونا نطلب من mixtral إصلاحها لنا:

"هذا الكود يستغرق وقتًا طويلاً للتشغيل، يرجى إصلاحه"

الكود يمكن العثور عليه هنا.

وهذه المرة يعمل. ما أجمله!

استخدام النموذجات متعددة الوسائط

يدعم Ollama حتى النماذج متعددة الوسائط، مثل تلك التي لديها إمكانيات "رؤية".

Ollama

استنتاج:

يمكن أن يكون تشغيل النماذج اللغوية الضخمة محليًا بواسطة Ollama مثيرًا للاهتمام ومجزيًا. من خلال استخدام هذه الأدوات، يمكنك الوصول إلى مجموعة كبيرة من النماذج والتعامل معها بكفاءة، بالإضافة إلى السيطرة على البيانات والخصوصية. سواء كنت تعمل في البحث أو ترغب في تجربة النماذج بنفسك، يوفر Ollama بيئة مرنة وقوية للقيام بذلك.

تعليقات

المشاركات الشائعة من هذه المدونة

نبذة عن نموذج phi3 وقدراته

 ثورة في عالم الذكاء الاصطناعي: نموذج Phi-3-mini تقوم شركة مايكروسوفت بتقديم أحدث إضافة إلى عائلة نماذج اللغة الخاصة بها: نموذج Phi-3-mini. إنها ليست مجرد نسخة مصغرة من سلسلة Phi-3 الشهيرة، بل هي قفزة نوعية في مجال الذكاء الاصطناعي، وتقدم مجموعة من الميزات المتقدمة والقدرات الاستثنائية. مع 3.8 مليار معلمة، يعد هذا النموذج الصغير معجزة تقنية، تجمع بين القوة الفائقة والمرونة المذهلة.  القدرات والت صميم المتقدم يتميز Phi-3-mini بقدرته المذهلة على فهم وتحليل النصوص. مع نافذة سياق واسعة تصل إلى 128 ألف رمز، يمكنه التعامل مع المقالات والوثائق الطويلة بكفاءة عالية. إنها بمثابة مساعد شخصي افتراضي يمكنه قراءة وفهم الكتب في غضون ثوان، مما يوفر للمستخدمين تجربة قراءة وتفاعل غير مسبوقة. تم تصميم النموذج باستخدام خوارزميات التعلم العميق، مما يمكنه من التكيف والتعلم من التفاعلات. فهو يفهم السياق ويتعلم من الأخطاء، مما يجعله أكثر ذكاءً بمرور الوقت. سواء كان المستخدمون يطرحون الأسئلة أو يقدمون أوامر أو يشاركون القصص، فإن Phi-3-mini قادر على فهم النوايا وتقديم استجابات دقيقة وذات صلة.  ال...

دليلك لفتح متجر الكتروني في زد او سلة للأجانب

  1. موضوع المدونة: دليلك لفتح متجر إلكتروني في السعودية كأجنبي (على منصات زد وسلة) العنوان: حلم التجارة الإلكترونية في السعودية أصبح أقرب! دليلك الشامل لفتح متجر على زد أو سلة كـ "أجنبي" مقدمة: هل أنت مقيم في بلد آخر وتحلم بدخول السوق السعودي الواعد عبر التجارة الإلكترونية؟ هل سمعت بمنصات مثل "زد" و "سلة" ولكن تتساءل: "هل يمكنني كأجنبي فتح متجر عليها؟". الجواب هو: نعم، ممكن! لكن الأمر يتطلب فهم بعض الشروط والإجراءات. في هذا الدليل الشامل، سنأخذ بيدك خطوة بخطوة لنوضح لك كيف يمكنك تحقيق ذلك. لماذا السوق السعودي؟ ولماذا زد وسلة؟ السوق السعودي من أسرع أسواق التجارة الإلكترونية نموًا في المنطقة، والمستهلك السعودي يتمتع بقوة شرائية عالية وتقبل كبير للتسوق أونلاين. منصات مثل "زد" و "سلة" سهّلت الأمر كثيرًا على التجار، حيث توفر حلولاً متكاملة لإنشاء المتاجر وإدارتها، مع ربط بأنظمة دفع وشحن محلية موثوقة. التحدي الرئيسي: المتطلبات القانونية والرسمية النقطة الأساسية التي يجب أن يعرفها أي "أجنبي" (سواء كان مقيمًا خارج السعو...