المعالجات استعادت شعبيتها داخل مراكز البيانات
المشهد المتغير لمعالجات مراكز البيانات
في السنوات الأخيرة، هيمنت وحدات معالجة الرسومات (GPUs) على سوق التكنولوجيا، حيث استثمر مزودو الخدمات السحابية الرئيسيون وشركات التكنولوجيا بكثافة في هذه الشرائح المتقدمة لدعم مبادرات الذكاء الاصطناعي الخاصة بهم.
وفي الوقت نفسه، قلّ التركيز على وحدات المعالجة المركزية (CPUs) - وهي المكونات الأساسية التي تدير غالبية عمليات مراكز البيانات والخدمات الرقمية اليومية - مع انتقال الأضواء إلى وحدات معالجة الرسومات.
وحدات المعالجة المركزية تستعيد أهميتها في عصر الذكاء الاصطناعي
بدأ هذا الاتجاه في الانعكاس مؤخرًا. ففي وقت سابق من هذا الشهر، أعلنت كل من Meta وNvidia عن توسيع كبير لشراكتهما، حيث زودت Nvidia شركة Meta بأكبر بنية تحتية من خوادم Grace CPU فقط حتى الآن.
وبعد فترة وجيزة، أعلنت AMD عن اتفاقية جديدة مع Meta، تتضمن خوادم مزودة بوحدات المعالجة المركزية Venice من AMD، بالإضافة إلى وحدات Verano القادمة. وخلال مكالمة الأرباح لشركة Intel في 22 يناير، شدد الرئيس التنفيذي Lip-Bu Tan على أن الذكاء الاصطناعي أصبح عاملًا رئيسيًا في زيادة الطلب على وحدات المعالجة المركزية.
وأشار Tan قائلاً: "إن النمو السريع وتنوع أعباء عمل الذكاء الاصطناعي يضغطان على كل من الأجهزة التقليدية والحديثة، مما يُبرز الدور الحاسم الذي تلعبه وحدات المعالجة المركزية في عالم اليوم المرتكز على الذكاء الاصطناعي."
وعلى الرغم من أن تجدد الاهتمام بوحدات المعالجة المركزية وسط طفرة الذكاء الاصطناعي قد يبدو مفاجئًا للبعض، إلا أن صعود الاستدلال بالذكاء الاصطناعي والعملاء المستقلين من الذكاء الاصطناعي يعيد الأضواء مجددًا إلى وحدات المعالجة المركزية.
وحدات المعالجة المركزية: العمود الفقري للحوسبة
تشكّل وحدات المعالجة المركزية النواة في كل نظام حاسوب تقريبًا. فمنذ أن أطلقت Amazon خدمات AWS في 2006، كانت وحدات المعالجة المركزية هي الأساس الذي تُبنى عليه مراكز البيانات الواسعة النطاق، ما أتاح تقديم خدمات مثل مشاركة الرحلات والتعاون في المستندات وتصفح الإنترنت.
ومع ذلك، وبعد إطلاق OpenAI لخدمة ChatGPT في أواخر 2022، تحوّل تركيز القطاع إلى وحدات معالجة الرسومات، مما أفاد شركات مثل Nvidia التي أصبحت أغلى شركة في العالم من حيث القيمة السوقية بفضل تخصصها في وحدات GPU لمراكز البيانات.
وعلى الرغم من أن وحدات معالجة الرسومات تحتاج وحدات CPU لإدارة تدفق البيانات، عاد الاستثمار في خوادم CPU المستقلة للانخفاض، حيث فضلت المنظمات بنية تحتية تعتمد على GPU.
أرفف الخوادم في مختبر الابتكار Digital Realty في آشبورن، فيرجينيا، 12 نوفمبر 2025. (ANDREW CABALLERO-REYNOLDS / AFP عبر Getty Images)قال Ian Buck، نائب رئيس قسم الحوسبة عالية الأداء والسحابية في Nvidia: "شاهدنا تحولاً واضحًا في الاستثمارات نحو بنية GPU التحتية بهدف تدريب ونشر نماذج الذكاء الاصطناعي على نطاق واسع". "وقد أدى ذلك إلى ركود سوق وحدات CPU."
فعلى سبيل المثال، شهد قطاع مراكز البيانات والذكاء الاصطناعي في Intel تراجعاً سنوياً بنسبة 5.2٪ في عام 2023، وبقي مستقرًا في 2024، وانتعش بنسبة 4.9٪ فقط في 2025، في فترة كانت Intel تمر خلالها أيضًا بتحول أكبر على مستوى الشركة.
نمو وحدات GPU مقابل انتعاش وحدات CPU
في المقابل، ارتفعت إيرادات مركز بيانات Nvidia بنسبة 41٪ في 2023، و 217٪ في 2024، و142٪ في 2025، مع تزايد الطلب على وحدات معالجة الرسومات لدى مزودي الخدمات فائقي النطاق لتشغيل أحمال العمل الخاصة بالذكاء الاصطناعي.
ومع ذلك، ومع التحول المتزايد للأعمال نحو نماذج ذكاء اصطناعي أصغر وعملاء رقميين ذاتيين أو شبه ذاتيين، عادت وحدات المعالجة المركزية إلى الواجهة. فهذه الكيانات المستقلة – سواء كانت جزئية أو كاملة ذاتية التشغيل – التي تتولى تنفيذ المهام، تؤدي إلى زيادة في استخدام وحدات CPU.
وأوضح Dan McNamara، النائب الأول لرئيس AMD والمدير العام للحوسبة وذكاء المؤسسات: "مع انتقال العملاء إلى الاستدلال، فإنهم يستخدمون نماذج لغوية أصغر وأكثر تخصصًا، وغالباً ما تعمل بكفاءة أكبر على وحدات المعالجة المركزية."
كما أن العملاء المدعومين بالذكاء الاصطناعي، الذين ينفذون مهاماً مثل تصفح الإنترنت وإدارة الملفات، يرفعون المزيد من استخدام وحدات المعالجة المركزية.
قال محلل Bernstein، Stacy Rasgon: "تخيل عميلاً ذكياً للذكاء الاصطناعي يحجز لك رحلة سفر". "الطلب الأولي تتم معالجته عبر النموذج، لكن عملية الحجز الفعلية تتم على خوادم شركة الطيران، والتي تعتمد على وحدات المعالجة المركزية – وليس وحدات معالجة الرسومات."
وتبقى وحدات المعالجة المركزية ضرورية أيضاً لتعدين البيانات وتخصيصها والتحليل السياقي، وهو ما يدعم نماذج الذكاء الاصطناعي القائمة على وحدات GPU.
وأضاف Ian Buck: "يجب جمع كل هذه البيانات من قواعد بيانات متعددة. بينما يكون طلب المستخدم بضع مئات من الكلمات فحسب، فإن العملية الكامنة تشمل آلاف الكلمات وإدارة بيانات معقدة، تُعالج كلها عبر أسطول خوادم وحدات المعالجة المركزية."
السوق المستقبلي لوحدات CPU في الذكاء الاصطناعي
يتوقع محلل BofA Global Research، Vivek Arya، أن الدور المتنامي لوحدات المعالجة المركزية في الذكاء الاصطناعي سيعزز بشكل كبير من إيرادات شركات تصنيع الرقاقات. ويقدّر أنه يمكن أن يرتفع سوق وحدات المعالجة المركزية من 27 مليار دولار في 2025 إلى ما يصل إلى 60 مليار دولار بحلول 2030، حيث ستشكل خوادم الذكاء الاصطناعي حوالي 70٪ من هذا السوق في حين تمثل الخوادم غير المعتمدة على الذكاء الاصطناعي حوالي 19٪.
ولا يعني هذا نهاية عصر وحدات GPU. بل على العكس، مع زيادة أعباء العمل على GPU، تزداد الحاجة لوحدات CPU لدعمها أيضاً.
وأكد McNamara: "إنها ليست لعبة صفرية". "الطلب على وحدات CPU يرتفع، لكن نمو وحدات GPU لا يتباطأ – فهناك ببساطة المزيد من أعباء العمل ككل."
سجّل للحصول على نشرة ياهو فايننس الأسبوعية في التكنولوجيا. · yahoofinanceإخلاء المسؤولية: يعكس محتوى هذه المقالة رأي المؤلف فقط ولا يمثل المنصة بأي صفة. لا يُقصد من هذه المقالة أن تكون بمثابة مرجع لاتخاذ قرارات الاستثمار.
You may also like
ترامب اشترى سندات Netflix وWarner Bros في ذروة معركة المزايدة مع Paramount
قامت Live Nation بتسوية دعوى مكافحة الاحتكار الفيدرالية

أفضل 4 أسهم مصنفة بهوامش ربح صافية قوية لزيادة مكاسبك
