ميتا قام ببناء رقائق كمبيوتر مخصصة للمساعدة في مهام الذكاء الاصطناعي ومعالجة الفيديو ، ويتحدث عنها علنًا لأول مرة.
كشفت شركة الشبكات الاجتماعية العملاقة عن مشاريعها الخاصة بشرائح السيليكون للمرة الأولى للصحفيين في وقت سابق من هذا الأسبوع ، قبل حدث افتراضي يوم الخميس يناقش استثمارات البنية التحتية التقنية للذكاء الاصطناعي.
أخبار الاستثمار ذات الصلة
كان المستثمرون يراقبون عن كثب استثمارات Meta في الذكاء الاصطناعي وأجهزة مركز البيانات ذات الصلة حيث تشرع الشركة في “عام من الكفاءة” يتضمن ما لا يقل عن 21000 تسريح للعمال وخفض كبير في التكاليف.
على الرغم من أن تصميم وبناء رقائق الكمبيوتر الخاصة بها أمر مكلف بالنسبة لشركة ما ، إلا أن نائب رئيس البنية التحتية ألكسيس بجورلين قال لشبكة CNBC إن Meta تعتقد أن الأداء المحسن سوف يبرر الاستثمار. قامت الشركة أيضًا بإصلاح تصميمات مراكز البيانات الخاصة بها للتركيز بشكل أكبر على التقنيات الموفرة للطاقة ، مثل التبريد السائل ، لتقليل الحرارة الزائدة.
تُستخدم إحدى رقائق الكمبيوتر الجديدة ، معالج الفيديو Meta Scalable (MSVP) ، لمعالجة ونقل الفيديو إلى المستخدمين مع تقليل متطلبات الطاقة. قال Bjorlin “لم يكن هناك شيء متاح تجاريًا” يمكنه التعامل مع مهمة معالجة وتقديم 4 مليارات مقطع فيديو يوميًا بكفاءة كما أرادت Meta.
المعالج الآخر هو الأول في عائلة الرقائق Meta Training and Inference Accelerator (MTIA) الخاصة بالشركة والتي تهدف إلى المساعدة في المهام المختلفة الخاصة بالذكاء الاصطناعي. تتعامل شريحة MTIA الجديدة على وجه التحديد مع “الاستدلال” ، وهو ما يحدث عندما يقوم نموذج ذكاء اصطناعي مدرب بالفعل بالتنبؤ أو يتخذ إجراءً ما.
قال Bjorlin إن شريحة الاستدلال AI الجديدة تساعد في تشغيل بعض خوارزميات توصيات Meta المستخدمة لعرض المحتوى والإعلانات في خلاصات أخبار الأشخاص. ورفضت الإجابة على من يقوم بتصنيع الرقاقة ، لكن منشورًا على المدونة قال إن المعالج “مُصنع في عملية TSMC 7nm” ، مما يشير إلى أن شركة تصنيع أشباه الموصلات التايوانية العملاقة للرقائق تنتج التكنولوجيا.
وقالت إن Meta لديها “خارطة طريق متعددة الأجيال” لعائلة رقائق الذكاء الاصطناعي الخاصة بها والتي تشمل المعالجات المستخدمة لمهمة تدريب نماذج الذكاء الاصطناعي ، لكنها رفضت تقديم تفاصيل تتجاوز شريحة الاستدلال الجديدة. ذكرت وكالة رويترز سابقًا أن Meta ألغت مشروعًا لرقاقة استدلال الذكاء الاصطناعي وبدأت مشروعًا آخر كان من المفترض أن يتم طرحه في حوالي عام 2025 ، لكن Bjorlin رفض التعليق على هذا التقرير.
نظرًا لأن Meta لا تعمل في مجال بيع خدمات الحوسبة السحابية مثل الشركات بما في ذلك شركة Alphabet التابعة لشركة Google أو Microsoft ، فإن الشركة لم تشعر بأنها مضطرة للتحدث علنًا عن مشاريع شرائح مركز البيانات الداخلية الخاصة بها ، على حد قولها.
قال بيورلين: “إذا نظرت إلى أننا نشارك – أول شريحتين طورناهما – إنها بالتأكيد تعطي نظرة بسيطة على ما نقوم به داخليًا”. “لم نضطر إلى الإعلان عن هذا ، ولسنا بحاجة إلى الإعلان عن ذلك ، لكن كما تعلم ، العالم مهتم”.
قال نائب رئيس Meta للهندسة Aparna Ramani إن الأجهزة الجديدة للشركة تم تطويرها للعمل بفعالية مع برنامج PyTorch المحلي ، والذي أصبح أحد أكثر الأدوات شيوعًا التي يستخدمها مطورو الطرف الثالث لإنشاء تطبيقات الذكاء الاصطناعي.
سيتم استخدام الأجهزة الجديدة في النهاية لتشغيل المهام المتعلقة بالميتافيرس ، مثل الواقع الافتراضي والواقع المعزز ، بالإضافة إلى المجال المزدهر للذكاء الاصطناعي التوليدي ، والذي يشير عمومًا إلى برامج الذكاء الاصطناعي التي يمكنها إنشاء نصوص وصور ومقاطع فيديو مقنعة .
قال راماني أيضًا أن Meta طورت مساعد ترميز مولّد يعمل بالذكاء الاصطناعي لمطوري الشركة لمساعدتهم على إنشاء البرامج وتشغيلها بسهولة أكبر. المساعد الجديد مشابه لأداة Microsoft GitHub Copilot التي أطلقتها في عام 2021 بمساعدة شركة OpenAI التي تعمل بالذكاء الاصطناعي.
بالإضافة إلى ذلك ، قالت Meta إنها أكملت بناء المرحلة الثانية ، أو البناء النهائي ، من حاسوبها العملاق المسمى Research SuperCluster (RSC) ، والذي وصفته الشركة العام الماضي. استخدمت Meta الكمبيوتر الفائق ، الذي يحتوي على 16000 وحدة معالجة رسومات Nvidia A100 ، لتدريب نموذج لغة LLaMA الخاص بالشركة ، من بين استخدامات أخرى.
قال راماني إن Meta تواصل العمل بناءً على إيمانها بضرورة المساهمة في تقنيات المصادر المفتوحة وأبحاث الذكاء الاصطناعي من أجل دفع مجال التكنولوجيا. كشفت الشركة أن أكبر نموذج لغة LLaMA ، LLaMA 65B ، يحتوي على 65 مليار معلمة وتم تدريبه على 1.4 تريليون رمز ، وهو ما يشير إلى البيانات المستخدمة في تدريب الذكاء الاصطناعي.
لم تكشف شركات مثل OpenAI و Google علنًا عن مقاييس مماثلة لنماذجها اللغوية الكبيرة المتنافسة ، على الرغم من أن CNBC ذكرت هذا الأسبوع أن نموذج PaLM 2 من Google قد تم تدريبه على 3.6 تريليون من الرموز المميزة ويحتوي على 340 مليار معلمة.
على عكس شركات التكنولوجيا الأخرى ، أصدرت Meta نموذج لغة LLaMA للباحثين حتى يتمكنوا من التعلم من التكنولوجيا. ومع ذلك ، تم بعد ذلك تسريب نموذج لغة LlaMA للجمهور الأوسع ، مما أدى إلى قيام العديد من المطورين ببناء تطبيقات تتضمن التكنولوجيا.
قال راماني أن Meta “ما زالت تفكر في جميع تعاوناتنا مفتوحة المصدر ، وبالتأكيد أريد أن أكرر أن فلسفتنا لا تزال علمًا مفتوحًا وتعاونًا متبادلًا.”
يشاهد: الذكاء الاصطناعي هو محرك كبير للمشاعر تجاه التكنولوجيا الكبيرة