منذ ظهور ChatGPT، ظهرت الكثير من الأدوات التي يعتبر احترامها لخصوصية المستخدم أمرًا مشكوكًا فيه. ولحسن الحظ، ظهرت العديد من المشاريع مفتوحة المصدر لمعالجة هذه المشكلة. Ollama AI هي أداة لاستخدام الذكاء الاصطناعي في المحطة
التطبيق سوف يسمح لك باستخدام قائمة LLMs على جهاز الكمبيوتر الخاص بك أو جهاز اللوحة الواحدة طالما أن أجهزتك قوية بما فيه الكفاية. والشيء الجيد هو أن مكتبتهم بها خيارات لجميع الأحجام.
تُستخدم LLMs (نماذج اللغة واسعة النطاق) لفهم إنشاء وترجمة اللغة على مستوى قريب من اللغة الطبيعية. يتم تدريبهم بكميات هائلة من البيانات النصية. يمكن استخدام هذه النماذج لمجموعة واسعة من المهام المتعلقة باللغة، مثل الإجابة على الأسئلة، وتلخيص النص، والترجمة إلى لغات أخرى، وإنتاج محتوى متماسك ومبدع، وإنهاء الجمل، وإيجاد أنماط اللغة.
التعبير "على نطاق واسع" يشير إلى كل من الكمية الهائلة من البيانات (المليارات) والمعلمات التي يستخدمها النموذج لإنشاء العلاقات وإيجاد الأنماط بين البيانات.
المعلمات هي عامل يجب أخذه بعين الاعتبار. على الرغم من أن هناك من أبلغ عن استخدام Ollama AI على Raspberry Pi 4، إلا أنه لا يمكن استخدام جميع الطرز إذا لم يكن لديك ذاكرة كافية. لقد استخدمت نماذج تحتوي على 7 مليار معلمة مع 6 غيغابايت من ذاكرة الوصول العشوائي وبدون بطاقة رسوميات دون التأثير على أداء النظام، لكنه لم يتمكن من التعامل مع واحد مع 13.
النماذج ذات المعلمات الأقل تتحدث الإسبانية على مستوى المحاكاة الساخرة السياحية اليانكية وليست دقيقة جدًا في إجاباتها، لذا يجب عليك توخي الحذر عند استخدامها.
Ollama AI: استخدم الذكاء الاصطناعي في المحطة
قبل المتابعة، لنبدأ بشرح موجز. LlaMa هي خوارزمية للتعلم الآلي تسمح للذكاء الاصطناعي بتعلم التعرف على صور الكائنات وتصنيفها.
لهذا النوع من النماذج ويتم تدريبهم باستخدام صور مصنفة حتى يتعلموا التعرف على خصائص معينة مثل الملمس والشكل واللون التي تسمح لهم بالتعرف عليهم في سياقات أخرى.
نظرًا لأن اسم الخوارزمية يُنطق بنفس اسم الحيوان، فقد تمت تسمية بعض المكتبات على اسم أنواع مشابهة مثل فيكونا (فيكونيا في اللغات التي لا تستخدم ñ) أو الألبكة.
وبالعودة إلى Ollama AI، فهو يسمح لنا بتنزيل وتشغيل نماذج مختلفة مفتوحة المصدر من محطة توزيع Linux الخاصة بنا. يتم تثبيته بالأمر:
curl https://ollama.ai/install.sh | sh
لإطلاق نموذج نكتب الأمر:
ollama run nombre_del_modelo
يمكننا أن نرى قائمة النماذج هنا
على سبيل المثال، لتثبيت TinyLlaama، وهو نموذج يحتوي على ما يزيد قليلاً عن تيرابايت من المعلمات، نستخدم الأمر:
ollama run tinyllama
في المرة الأولى التي يتم فيها تنفيذ هذا الأمر، يتم تنزيل النموذج على الكمبيوتر. يرجى ملاحظة أن بعضها يشغل عدة غيغابايت من مساحة القرص.
يمكنك حذف نموذج باستخدام الأمر:
ollama rm nombre_del modelo
لرؤية قائمة النماذج المثبتة استخدم الأمر:
قائمة العلماء
يمكنك الاطلاع على المعلومات حول كل طراز مثبت من خلال:
ollama show
أحد الخيارات المثيرة للاهتمام من مكتبة نماذج Ollama هو ما يسمى بالخيارات "غير الخاضعة للرقابة".. تضع نماذج الذكاء الاصطناعي الأكثر شهرة قيودًا على أنواع معينة من الأسئلة للامتثال ليس فقط للقانون ولكن أيضًا للضغوط الاجتماعية الناجمة عن الصواب السياسي.
أتذكر أنني طلبت منذ زمن طويل من كوبيلوت، مساعد ميكروسوفت القائم على برنامج ChatGPT، أن يحكي لي نكات جبل الجليد. فقال لي إن الكوارث البيئية موضوع خطير للغاية بحيث لا يمكن المزاح بشأنه.
النماذج غير الخاضعة للرقابة ويقومون بتحديد الحالات التي ترفض فيها أنظمة الذكاء الاصطناعي الاستجابة أو تقديم استجابات متحيزة من النماذج الأساسية، وإزالتها وتدريب النظام على الاستجابة بشكل صحيح.
سيتعين علي إجراء المزيد من الاختبارات لمعرفة مدى فائدة Ollama AI على أجهزة الكمبيوتر ذات كمية محدودة من ذاكرة الوصول العشوائي وبدون بطاقة رسومات مخصصة. على أية حال، من الجيد أن نعرف أن البدائل مفتوحة المصدر تشق طريقها وتسمح بإلغاء الرقابة.