طور باحثو أبل نموذج لغة يمكنه الكتابة أسرع بـ 128 مرة من نظرائه، فهو نموذج انتشار يولد رموزًا متعددة بالتوازي وبحسنها عبر عدة خطوات تكرارية حتى تتشكل الاستجابة الكاملة، على عكس نماذج LLM مثل ChatGPT التي تتميز بأنها نماذج انحدار ذاتي، وتُولد هذه النماذج نصًا بشكل تسلسلي، رمزًا واحدًا فى كل مرة، مع مراعاة كلٍّ من مطالبة المستخدم وجميع الرموز المُولّدة سابقًا.
وفقا لما ذكره موقع "9to5mac"، فإن أحد أشكال نماذج الانتشار هى نماذج مطابقة التدفق، التي تتخطى العملية التكرارية لنماذج الانتشار وتتعلم توليد النتيجة النهائية دفعة واحدة، وهى التي يتصف بها نموذج أبل الجديد، ففي دراسة نُشرت اليوم بعنوان "FS-DFM: توليد سريع ودقيق للنصوص الطويلة باستخدام نماذج لغة الانتشار قليلة الخطوات"، يقترح باحثون من أبل وجامعة ولاية أوهايو نموذجًا جديدًا يُسمى مطابقة التدفق المنفصلة قليلة الخطوات، أو FS-DFM.
أثبت الباحثون أن FS-DFM تمكن من كتابة مقاطع كاملة الطول بثماني جولات تحسين سريعة فقط، مما يُضاهي جودة نماذج الانتشار التي تطلبت أكثر من ألف خطوة لتحقيق نتيجة مماثلة، ولتحقيق ذلك، اتبع الباحثون نهجًا مثيرًا للاهتمام من ثلاث خطوات: أولًا، يُدرّب النموذج على التعامل مع ميزانيات مختلفة من تكرارات التحسين، ثم، يستخدمون نموذج "معلم" توجيهيًا لمساعدته على إجراء تحديثات أكبر وأكثر دقة في كل تكرار دون "تجاوز" النص المقصود، وأخيرًا، يُعدلون آلية عمل كل تكرار ليتمكن النموذج من الوصول إلى النتيجة النهائية بخطوات أقل وأكثر ثباتًا.
ونظرًا للنتائج والآفاق الواعدة التي تُظهرها هذه الطريقة، ونقص النماذج والدراسات المماثلة المتاحة، قال الباحثون أيضًا إنهم "يخططون لإصدار نقاط تحقق للرموز والنماذج لتسهيل إمكانية إعادة الإنتاج وإجراء المزيد من الأبحاث".
0 تعليق