أعلنت شركة Tether رسميًا عن إطلاق إطار عمل لضبط نماذج BitNet LoRA متعدد المنصات ضمن منصة QVAC Fabric، مما يتيح تدريبًا واستدلالًا مُحسّنًا لنموذج Microsoft BitNet (نموذج LLM أحادي البت). يُقلل هذا الإطار بشكل كبير من متطلبات الحوسبة والذاكرة، مما يسمح بتدريب وضبط نماذج ذات مليارات المعلمات على أجهزة الكمبيوتر المحمولة، ووحدات معالجة الرسومات الاستهلاكية، والهواتف الذكية. يُعد هذا الحل الأول من نوعه الذي يُحقق ضبط نماذج BitNet على وحدات معالجة الرسومات المحمولة (بما في ذلك Adreno وMali وApple Bionic). تُظهر الاختبارات إمكانية ضبط نموذج ذي 125 مليون معلمة في غضون 10 دقائق تقريبًا، ونموذج ذي مليار معلمة في حوالي ساعة، بل ويمكن توسيع نطاقه ليشمل نماذج ذات 13 مليار معلمة على الأجهزة المحمولة. علاوة على ذلك، يدعم إطار العمل أجهزة متنوعة مثل Intel وAMD وApple Silicon، وهو الأول من نوعه الذي يُحقق ضبط نموذج LLM أحادي البت LoRA على أجهزة غير تابعة لشركة NVIDIA. من حيث الأداء، تحقق نماذج BitNet سرعات استدلال أسرع من مرتين إلى 11 مرة على وحدات معالجة الرسومات المحمولة مقارنةً بوحدات المعالجة المركزية، مع تقليل استخدام الذاكرة بنسبة تصل إلى 77.8% مقارنةً بالنماذج التقليدية ذات 16 بت. وأكدت شركة Tether أن هذه التقنية لديها القدرة على التخلص من الاعتماد على قوة الحوسبة المتطورة والبنية التحتية السحابية، ودفع تدريب الذكاء الاصطناعي نحو اللامركزية والتوطين، وتوفير أساس لسيناريوهات تطبيقية جديدة مثل التعلم الموحد.