التعلّم التحوّلي هو تقنية تعلّم آلي (ML) حيث يتم إعادة استخدام نموذج تم تطويره لمهمة محددة كنقطة انطلاق لنموذج في مهمة ثانية ذات صلة. وبدلاً من بناء نموذج من الصفر، والذي يتطلب بيانات وموارد حاسوبية كبيرة، يستفيد التعلّم التحويلي من المعرفة (السمات والأنماط والأوزان) المستفادة من مهمة المصدر لتحسين التعلّم في المهمة المستهدفة. يكون هذا النهج مفيدًا بشكل خاص عندما يكون للمهمة المستهدفة بيانات موسومة محدودة، مما يسرّع عملية التدريب بشكل كبير ويؤدي غالبًا إلى أداء أفضل مقارنة بالتدريب على مجموعة البيانات المستهدفة فقط.
كيف يعمل التعلُّم التحويلي
تتمثل الفكرة الأساسية وراء التعلم التحويلي في أن النموذج الذي يتم تدريبه على مجموعة بيانات كبيرة وعامة، مثل ImageNet لمهام الصور أو مجموعة نصوص ضخمة لمعالجة اللغات الطبيعية (NLP)، يتعلم السمات العامة المفيدة للعديد من المهام الأخرى ذات الصلة. على سبيل المثال، في مجال الرؤية الحاسوبية (CV)، قد تتعلم الطبقات الأولية للشبكة العصبية التلافيفية (CNN) اكتشاف الحواف والقوام والأشكال البسيطة، وهي عناصر بصرية أساسية قابلة للتطبيق في مختلف مشاكل التعرف على الصور.
عند تطبيق تعلّم النقل، تبدأ عادةً بنموذج مدرب مسبقًا. اعتمادًا على التشابه بين المهام المصدر والهدف وحجم مجموعة البيانات المستهدفة، يمكنك:
- استخدم النموذج المدرّب مسبقًا كمستخرج للميزات: تجميد أوزان الطبقات الأولية ( العمود الفقري) وتدريب طبقات التصنيف أو الكشف النهائية فقط على مجموعة البيانات الجديدة. هذا أمر شائع عندما تكون مجموعة البيانات المستهدفة صغيرة. مثال على ذلك استخدام YOLOv5 عن طريق تجميد الطبقات.
- صقل النموذج المدرّب مسبقًا: إلغاء تجميد بعض أو كل الطبقات المدرّبة مسبقًا ومواصلة تدريبها على مجموعة البيانات الجديدة، عادةً بمعدل تعلم أقل. يسمح ذلك للنموذج بتكييف الميزات المكتسبة بشكل أكثر تحديدًا مع الفروق الدقيقة للمهمة المستهدفة. هذه استراتيجية شائعة عندما تكون مجموعة البيانات المستهدفة أكبر. وغالبًا ما يُعتبر الضبط الدقيق نوعًا محددًا من التعلّم التحويلي.
نقل التعلّم مقابل المفاهيم ذات الصلة
- الضبط الدقيق: على الرغم من ارتباطه الوثيق واستخدامه في كثير من الأحيان بالتبادل في بعض السياقات، إلا أن الضبط الدقيق يشير تحديدًا إلى عملية إلغاء تجميد ومواصلة تدريب أوزان نموذج مدرب مسبقًا على مهمة جديدة. إنها طريقة شائعة تُستخدم ضمن الاستراتيجية الأوسع نطاقًا للتعلم التحويلي.
- التدريب من الصفر: يتضمن ذلك تهيئة أوزان النموذج عشوائيًا وتدريب النموذج بالكامل على مجموعة البيانات المستهدفة فقط. ويتطلب ذلك كمية كبيرة من البيانات والقدرة الحاسوبية، وهو ما يهدف التعلّم التحويلي إلى تقليلها.
- التعلّم الصفري والتعلّم بالقليل منالأمثلة: تهدف هذه التقنيات إلى تمكين النماذج من أداء المهام بأمثلة قليلة جدًا أو بدون أمثلة من الفئات المستهدفة، وغالبًا ما تستفيد من المعرفة المكتسبة أثناء التدريب المسبق بطرق أكثر تعقيدًا من التعلم النقلي القياسي أو الضبط الدقيق. نماذج مثل CLIP هي أمثلة مستخدمة في مثل هذه السيناريوهات.
التطبيقات الواقعية
يتم تطبيق التعلم التحويلي على نطاق واسع في مختلف المجالات:
- الرؤية الحاسوبية:
- معالجة اللغات الطبيعية (NLP):
- تحليل المشاعر: صقل النماذج اللغوية الكبيرة مثل BERT أو GPT، والتي يتم تدريبها مسبقًا على كميات هائلة من البيانات النصية، لتصنيف مشاعر أنواع معينة من النصوص (مثل مراجعات المنتجات، ومنشورات وسائل التواصل الاجتماعي). يوفر برنامجHugging Face Transformers العديد من هذه النماذج المدربة مسبقاً.
- التعرف على الكيانات المسماة (NER): تكييف النماذج اللغوية المدربة مسبقًا لتحديد كيانات محددة (مثل الأسماء والمواقع والمنظمات) ضمن نصوص خاصة بمجال معين (مثل الوثائق القانونية والسجلات الطبية).
- روبوتات المحادثة: استخدام نماذج لغوية مُدرّبة مسبقًا كقاعدة لبناء وكلاء محادثة قادرين على فهم استفسارات المستخدمين والرد عليها في مجالات محددة.
الأدوات وأطر العمل
تعمل منصات مثل Ultralytics HUB على تبسيط عملية تطبيق التعلّم التحويلي من خلال توفير نماذج مُدرّبة مسبقًا (مثل Ultralytics YOLOv8 و YOLO11) وأدوات لسهولة التدريب المخصص على مجموعات بيانات خاصة بالمستخدم. أطر عمل مثل PyTorch و TensorFlow أيضًا دعمًا مكثفًا ودروسًا تعليمية لتنفيذ سير عمل التعلّم التحويلي. وللحصول على فهم نظري أعمق، توفر موارد مثل النظرة العامة CS231n في جامعة ستانفورد حول التعلم التحويلي أو الاستطلاعات الأكاديمية مثل"دراسة استقصائية حول التعلم التحويلي العميق" رؤى قيمة.