وفقًا لكوينتيليغراف، أعلنت مايكروسوفت عن إطلاق شريحة جديدة للذكاء الاصطناعي (AI)، وهي Microsoft Azure Maia AI Accelerator، في منشور بالمدونة يوم 15 نوفمبر. تم تصميم الشريحة لمهام الذكاء الاصطناعي والذكاء الاصطناعي التوليدي وتم تقديمها جنبًا إلى جنب مع مايكروسوفت. وحدة المعالجة المركزية Azure Cobalt، المخصصة لحوسبة أحمال العمل على Microsoft Cloud. أشارت الشركة إلى الرقاقتين على أنهما "قطعة اللغز الأخيرة" لأنظمة البنية التحتية لمايكروسوفت. ومن المتوقع أن تصل الرقائق في أوائل عام 2024، في البداية إلى مراكز بيانات مايكروسوفت، حيث ستساعد في تشغيل خدمة Copilot أو Azure OpenAI Service.
علق سكوت جوثري، نائب الرئيس التنفيذي لمجموعة Cloud + AI Group من Microsoft، على دمج الشريحة في مراكز بيانات الشركة، مشيرًا إلى أنه من الضروري بالنسبة لهم تحسين ودمج كل طبقة من حزمة البنية التحتية لتحقيق أقصى قدر من الأداء، وتنويع أعمالهم. سلسلة التوريد، وتزويد العملاء باختيار البنية التحتية. يقال إن OpenAI، وهي شركة ذكاء اصطناعي مدعومة من Microsoft، قدمت تعليقات حول Maia 100 AI Accelerator الجديد وكيفية تشغيل أعباء العمل الخاصة به فوق البنية التحتية الجديدة. وقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إن هذه الرقائق الجديدة ستساعد في جعل نماذج الذكاء الاصطناعي الخاصة بهم أكثر "قدرة" و"أرخص" للمستخدمين.
وبالإضافة إلى شرائح مايكروسوفت الجديدة، أعلنت الشركة أنها تعمل على توسيع شراكاتها مع اثنتين من أكبر الشركات المصنعة للرقائق في العالم، وهما Nvidia وAMD. تخطط Microsoft لدمج بعض الرقائق عالية الأداء الخاصة بالمصنعين في عملياتها. ويأتي هذا الإعلان في الوقت الذي تعمل فيه العديد من الشركات الكبرى في مجال التكنولوجيا والذكاء الاصطناعي على زيادة إنتاج شرائح أشباه الموصلات. وفي أكتوبر، كشفت سامسونج أنها تعمل على تطوير شرائح الذكاء الاصطناعي والملكية الفكرية لمراكز البيانات بالتعاون مع الشركة الكندية الناشئة Tenstorrent. وبعد فترة وجيزة، ظهرت تقارير عن أن شركة OpenAI تفكر في تصنيع شرائح الذكاء الاصطناعي داخل الشركة. في الآونة الأخيرة، في 22 أكتوبر، كشفت شركة التكنولوجيا العالمية IBM النقاب عن شريحة الذكاء الاصطناعي الجديدة الخاصة بها، والتي تدعي أنها توفر سرعة تصل إلى 22 مرة، ويُقال إنها أكثر كفاءة في استخدام الطاقة من أي شريحة حالية متاحة.