
هذا الأسبوع، أطلقت Google مجموعة من النماذج المفتوحة للذكاء الاصطناعي، Gemma 3، التي حظيت بإشادة كبيرة بفعاليتها الرائعة. ولكن كما عبر عدد من المطورين عن حزنهم على X ، فإن ترخيص Gemma 3 يجعل من استخدام التجاري للنماذج مقترحا غير مستبعد.
ليست مشكلة فريدة من نوعها لـ Gemma 3. تطبق الشركات مثل Meta أيضًا شروط ترخيص مخصصة وغير قياسية على نماذجها المتاحة بشكل عام، وتقدم الشروط تحديات قانونية للشركات. بعض الشركات، خاصة العمليات الصغيرة، تشعر بالقلق من أن Google وغيرها قد يكونون قادرين على "سحب البساط" من تحت أقدامها عن طريق تأكيد الأحكام الأكثر عبئًا.
"تθثيمـ تر allotsل ترخيصـlleserــmato حركي نط ك weighــθمــتثةl 'open' لخعن الـ AI يşتyفي خعظير من عθa ـρاkhل listic, خعن؛pθθؼاk ي alla٧ ب proų p summitθ C Ipsumişة،™ aوX، 'θθَـمْ‘θـa' cّْoـmِe색ة+ aθθثeٲe-ranθe a tتↄ l wesigـرήعـ cθ llrsel-pettnبهاeorcaaθo، " alborñار lánectTitize of lόal l op nf, opstanta Xlfer ૮.™بإībirθ ح villep wζθ capplca malk abـute aincare,§ū بهان‹،قلى‹ن lè809៑acsectuse aencapiyen abudم g°r茁ncم g櫍eةº-nှbarاprinci«p˦ldrpôoBиquーパl l gupta櫍e aـeir cǎiā w oĦels."
يوجد لدى المطورين للنماذج المفتوحة أسبابهم لإصدار النماذج تحت تراخيص مملوكة مقارنة بخيارات الصناعة القياسية مثل Apache و MIT. على سبيل المثال، أعربت شركة Cohere الناشئة عن نية واضحة لدعم العمل العلمي — وليس التجاري — على أعلى من نماذجها.
ولكن تحتوي ترخيصات Gemma و Llama الخاصة على قيود تحد من الطرق التي يمكن للشركات استخدام النماذج من دون خوف من القصاص القانوني.
على سبيل المثال، تمنع Meta المطورين من استخدام “الناتج أو النتائج” من نماذج Llama 3 لتحسين أي نموذج آخر غير Llama 3 أو “الأعمال المشتقة”. كما تمنع الشركات التي لديها أكثر من 700 مليون مستخدم نشط شهريًا من نشر نماذج Llama دون الحصول أولا على ترخيص إضافي خاص.
على العموم، يكون ترخيص Gemma أقل عِبء. ولكن يمنح Google الحق في “قيد (عن بُعد أو غير ذلك) الاستخدام” لـ GالـGemاأ الذي يرى Google أنه ينتهك سياسة الاستخدام المحظورة للشركة أو “القوانين واللوائح المعمول بها”.
لا تنطبق هذه الشروط فقط على النماذج الأصلية Llama و Gemma. يجب أن تلتزم النماذج القائمة على Llama أو Gemma بتراخيص Llama و Gemma على التوالي. في حالة Gemma، فإن ذلك يشمل النماذج التدريبية على البيانات الاصطناعية التي تم إنشاؤها بواسطة Gemma.
يعتقد Florian Brand، المساعد البحثي في المركز الألماني للذكاء الاصطناعي، أنه — على الرغم مما يدعيه المسؤولون الكبار في الشركات التقنية — لا يمكن أن تُسمى تراخيص مثل Gemma و Llama بشكل معقول ‘مفتوحة المصدر.’
“معظم الشركات لديها مجموعة من التراخيص المعتمدة، مثل Apache 2.0، لذا أي ترخيص مخصص يتطلب الكثير من المتاعب والمال”، قال Brand لـ TechCrunch. “الشركات الصغيرة التي ليس لديها فرق قانونية أو مال للمحامين ستلتزم بالنماذج ذات التراخيص القياسية.”
لفت Brand إلى أن مطوري النماذج لديهم تراخيص مخصصة مثل تلك التابعة لـ Google، لم يفرضوا شروطهم بقوة بعد. ومع ذلك، فإن التهديد في كثير من الأحيان يكون كافيا لردع التبني، أضاف.
“تؤثر هذه القيود على النظام البيئي للذكاء الاصطناعي — حتى على الباحثين في الذكاء الاصطناعي مثلي”، قال Brand.
يوافق Han-Chung Lee، مدير تعلم الآلة في موديز، على أن التراخيص المخصصة مثل تلك المرفقة بـ Gemma و Llama جعل النماذج “غير قابلة للاستخدام” في العديد من السيناريوهات التجارية. كما يوافق على ذلك Eric Tramel، عالم العلوم التطبيقية في شركة الذكاء الاصطناعي Gretel.
“تجعل تراخيص تعاميم النماذج المحددة تعاميم خاصة للاشتقاق والضغط النمذجي، مما يثير قلقًا بشأن إلغاء الأرجل”، قال Tramel. “تخيل شركة تنتج على وجه الخصوص ضبط نماذج لعملائها. أي ترخيص ينبغي أن يكون لإعداديات البيانات Gemma با Bakجة؟ بماذا يكون التأثير على جميع عملاءهم النازلين؟”
السيناريو الذي يخشى منه الناشرين بشدة، وفقًا ل Tramel، هو أن تكون النماذج كحصان طروادة من نوع ما.
“يمكن لمصنع النماذج أن يضع نماذج [مفتوحة]، وينتظر لمعاينة الحالات التجارية التي تنمو باستخدام تلك النماذج، ثم يضعف سلطتهم في القطاعات الناجحة عن طريق استغلال أو استخدام القوانين”، قال. “على سبيل المثال، يبدو Gemma 3، من جميع النظرات، مستقرًا — ويمكن أن يكون له تأثير واسع. ولكن السوق لا يمكنه اعتماده بسبب بنيته الترخيصية. لذا، من المحتمل أن تلتزم الشركات بنماذج Apache 2.0 ربما أضعف وأقل موثوقية.”
لتكون واضحة، فقد حققت بعض النماذج توزيعًا واسع النطاق على الرغم من تراخيصها القيودية. على سبيل المثال، تم تنزيل Llama مئات الملايين من المرات وتضمينه في منتجات من الشركات الكبرى، بما في ذلك Spotify.
لكن يمكن أن تكون أكثر نجاحًا إذا كانت مرخصة بشكل مسموح به، وفقًا لـ Yacine Jernite، رئيس تعلم الآلة والمجتمع في شركة الذكاء الاصطناعي Hugging Face. دعا Jernite مزودي الخدمات مثل Google إلى الانتقال إلى أطر تراخيص مفتوحة و"التعاون بشكل أكثر مباشر" مع المستخدمين على شروط يتم قبولها على نطاق واسع.
"نظرًا لعدم وجود اتفاق على تلك الشروط وحقيقة أن الافتراضات الأساسية لم يتم اختبارها بعد في المحاكم، فإن كل ذلك يعمل في المقام الأول كإعلان عن النية من هؤلاء الفاعلين،" قال Jernite. "[لكن إذا كانت بعض الشروط] تفسر بشكل واسع جدًا، فإن العديد من الأعمال الجيدة ستجد نفسها على أرض قانونية غير واضحة، وهو مرعب بشكل خاص للمؤسسات التي تبني منتجات تجارية ناجحة."
قال Vidal إن هناك حاجة ماسة لشركات نماذج الذكاء الاصطناعي التي يمكنها تكاملها، تعديلها، ومشاركتها بحرية دون خوف من تغييرات التراخيص المفاجئة أو الغموض القانوني.
“إن المشهد الحالي لتراخيص نماذج الذكاء الاصطناعي مليء بالارتباك، والشروط القيودية، والادعاءات الخادعة بالشفافية،" قال Vidal. "بدلاً من إعادة تعريف ‘المفتوحة’ لتناسب مصالح الشركات، ينبغي لصناعة الذكاء الاصطناعي أن تتحقق مع المبادئ المعتمدة لمصادر مفتوحة لإنشاء بيئة حقًا مفتوحة."