تقنية
إنفيديا قد تعلن قريبًا عن شرائح الذكاء الاصطناعي الجديدة في الصين
يبدو ان شركة NVIDIA لا تريد أن تفقد إمكانية الوصول إلى سوق شرائح الذكاء الاصطناعي الضخم في الصين. تقوم الشركة بتطوير ثلاث شرائح جديدة للذكاء الاصطناعي خاصة للصين والتي لا تتعارض مع أحدث قيود التصدير في الولايات المتحدة، وفقًا لصحيفة Wall Street و Reuters.
وفي العام الماضي، أخطرت الحكومة الأمريكية شركة إنفيديا بأنها ستقيد تصدير شرائح الكمبيوتر المخصصة لأجهزة الحواسب العملاقة وتطبيقات الذكاء الاصطناعي إلى روسيا والصين بسبب مخاوف من إمكانية استخدام المكونات لأغراض عسكرية.
اعلان
منعت هذه القاعدة الشركة من بيع شرائح معينة من A100 و H100 في الصين، لذلك صممت شرائح A800 و H800 خصيصًا للسوق الصينية.
ومع ذلك، أصدرت الحكومة الأمريكية مؤخرًا مجموعة محدثة من القيود التي تضع حدًا لمدى قوة الحوسبة التي يمكن أن تتمتع بها الشريحة عندما يكون من المقرر تصديرها إلى البلدان المذكورة أعلاه.
لم تعد كل من A800 و H800 مؤهلتين للتصدير بموجب القواعد الجديدة، إلى جانب منتجات إنفيديا الأخرى، والتي تشمل وحدة معالجة الرسومات الاستهلاكية RTX 4090 الأفضل في فئتها.
حتى أن بعض التقارير تشير إلى أن الشركة قد ينتهي بها الأمر إلى إلغاء طلبات شرائح متقدمة بقيمة تزيد عن 5 مليارات دولار في الصين. وتسمى الشرائح الجديدة المخصصة للسوق الصينية HGX H20 و L20 و L2، بناءً على المواصفات المرسلة إلى الموزعين.
في حين أنه من المفترض أن يكون H20 هو النموذج الأقوى من بين النماذج الثلاثة، إلا أن جميعها لا تتجاوز عتبة قوة الحوسبة التي حددتها قواعد التصدير الجديدة للحكومة الأمريكية.
وهذا يعني أن العملاء الذين يستخدمونها لتطبيقات الذكاء الاصطناعي قد يحتاجون إلى شرائح أكثر مما كانوا سيحتاجون إليه لو كان لديهم إمكانية الوصول إلى نماذج ذات مواصفات أعلى.
بدأت الشركات الصينية، بما في ذلك Baidu و Huawei و Xiaomi و Oppo، بالفعل في تصميم أشباه الموصلات الخاصة بها للتحضير لمستقبل محتمل حيث يمكن أن تكون قادرة على استيراد الشرائح من الولايات المتحدة ودول أخرى.
ومع ذلك، قد يفضل عملاء NVIDIA القدامى الالتزام بمكونات الشركة، نظرًا لسمعتها وبرامجها، والتي تقول المجلة إنها من أقوى البرامج لتطوير الذكاء الاصطناعي.
وحسبما ورد، قد تعلن إنفيديا عن الشرائح الجديدة في أقرب وقت في 16 نوفمبر وقد تبدأ في بيعها قبل نهاية العام.