مرحبًا ومرحبًا بكم في عين على الذكاء الاصطناعي… في هذا العدد: نهاية “نهاية العالم للبرمجيات كخدمة” ليست الآن… أطلقت كل من OpenAI وAnthropic نماذج جديدة لها تبعات كبيرة على الأمن السيبراني… البيت الأبيض يفكر في قيود تطوعية على بناء مراكز البيانات لتوفير مفاجأة فواتير الكهرباء للمستهلكين… لماذا من المحتمل أن تكون مقياسان للذكاء الاصطناعي يُذكران كثيرًا كلاهما خاطئ… ولماذا لم نعد قادرين على التمييز بشكل متزايد إذا كانت نماذج الذكاء الاصطناعي آمنة.
يحتاج المستثمرون إلى الاسترخاء. هذا هو استنتاجي بعد مشاهدة تقلبات السوق الأسبوع الماضي. على وجه الخصوص، سيكون من الحكمة للمستثمرين أن يجدوا لأنفسهم طبيب نفسي كلايني. ذلك لأنهم يبدو أنهم عالقون في ما قد يحددها كلايني على أنه “الموقف paranoid-schizoid” — يتأرجحون بشكل متطرف بين اعتبار تأثير الذكاء الاصطناعي على بائعي البرمجيات الراسخين إما “جيد جدًا” أو “سيء جدًا”. الأسبوع الماضي، تحولوا إلى “سيء جدًا” ووفقًا لتقديرات جولدمان ساكس، تم مسح حوالي 2 تريليون دولار من القيمة السوقية للأسهم. حتى الآن هذا الأسبوع، عاد الأمر إلى “جيد جدًا” وارتد مؤشر S&P 500 ليقترب من أعلى مستوياته على الإطلاق (على الرغم من أن بائعي برمجيات SaaS شهدوا مكاسب معتدلة فقط، وقد يكون الاضطراب قد أودى على الأقل برئيس تنفيذي واحد: أعلن الرئيس التنفيذي لشركة Workday، كارل إشنباخ، أنه سيتنحى ليحل محله أحد مؤسسي الشركة والرئيس التنفيذي السابق، أنيل بهسري). لكن هناك الكثير من التفاصيل الدقيقة التي تفتقدها الأسواق. يحب المستثمرون سردًا بسيطًا. سباق الذكاء الاصطناعي المؤسسي الآن أشبه برواية روسية.
على مدى العامين الماضيين، عاقبت الأسواق المالية أسهم شركات SaaS لأنهم اعتقدوا أن نماذج الأساس للذكاء الاصطناعي قد تسمح للشركات بـ “توليد الكود” لبرمجيات مخصصة يمكن أن تحل محل Salesforce أو Workday أو ServiceNow. الأسبوع الماضي، بدا أن السبب هو الإدراك أن وكلاء الذكاء الاصطناعي الأكثر قدرة من شركات مثل Anthropic، التي بدأت في طرح ملحقات لمنتجها Claude Cowork الموجه لقطاعات صناعية معينة، قد يضر بشركات SaaS بطريقتين: أولاً، عروض الوكيل الجديدة من شركات النماذج الأساسية تتنافس مباشرة مع برامج الوكيل الذكي من عمالقة SaaS. ثانيًا، من خلال أتمتة سير العمل، قد تقلل الوكلاء من الحاجة إلى الموظفين البشريين، مما يعني أن شركات SaaS لا يمكنها فرض رسوم على العديد من تراخيص المقاعد. لذلك، تتعرض شركات SaaS لضربتين.
لكن من غير الواضح أن كل هذا صحيح — أو على الأقل، هو صحيح جزئيًا فقط.
فيديو موصى به
الوكلاء الذكيون لا يأكلون برمجيات SaaS، إنهم يستخدمونها
أولاً، من غير المحتمل جدًا، حتى مع تزايد قدرات وكلاء البرمجة بالذكاء الاصطناعي، أن ترغب معظم شركات فورتشن 500 في إنشاء برمجيات إدارة علاقات العملاء أو الموارد البشرية أو إدارة سلسلة التوريد المخصصة لها. نحن ببساطة لن نشهد تفكيك كامل ل50 سنة من تطوير برمجيات المؤسسات. إذا كنت صانع أدوات، فإنك لا ترغب حقًا في أن تكون في مجال إنشاء، تشغيل وصيانة برمجيات ERP، حتى لو كانت تلك العملية مؤتمتة بشكل كبير بواسطة مهندسي الذكاء الاصطناعي. لا يزال الأمر يتطلب الكثير من المال والكثير من استثمار المواهب الهندسية المحدودة — حتى لو كانت كمية العمل البشري المطلوب أقل بكثير مما كانت عليه قبل خمس سنوات. لذلك، من المرجح أن تظل الطلبات على المنتجات الأساسية التقليدية لشركات SaaS ثابتة.
أما بالنسبة للمخاوف الجديدة حول سرقة وكلاء الذكاء الاصطناعي من قبل شركات النماذج الأساسية للسوق الخاص بعروض وكلاء SaaS، فهناك مزيد من الأمور التي يمكن للمستثمرين في SaaS القلق بشأنها. قد يكون أن Anthropic وOpenAI وGoogle ستسيطر على الطبقة العليا من تكديس الذكاء الاصطناعي الوكيل — ببناء منصات تنظيم الوكلاء التي تمكن الشركات الكبرى من بناء، تشغيل، وإدارة سير عمل معقد. هذا ما تحاول OpenAI تحقيقه مع إطلاقها الأسبوع الماضي لمنصتها الجديدة للذكاء الاصطناعي الوكيلي للمؤسسات المسماة Frontier.
يقول كبار مزودي SaaS إنهم يعرفون أفضل كيفية إدارة طبقة التنظيم لأنهم معتادون بالفعل على التعامل مع الأمن السيبراني، والتحكم في الوصول، والحوكمة، ولأنهم، في كثير من الحالات، يمتلكون البيانات التي ستحتاجها الوكالات الذكية للوصول إليها لأداء مهامها. بالإضافة إلى ذلك، نظرًا لأن معظم سير العمل التجاري لن يكون مؤتمتًا بالكامل، يعتقدون أن لديهم ميزة في خدمة قوة عمل هجينة، حيث يعمل البشر والوكيل الذكي معًا على نفس البرمجيات وفي نفس سير العمل. قد يكونون على حق. لكن عليهم إثبات ذلك قبل أن تظهر OpenAI أو Anthropic أنها تستطيع أداء المهمة بنفس الجودة أو بشكل أفضل.
كما أن شركات النماذج الأساسية لديها فرصة للسيطرة على سوق الوكلاء الذكيين. يُعد Claude Cowork من Anthropic تهديدًا جديًا لـ Salesforce وMicrosoft، لكنه ليس تهديدًا وجوديًا تمامًا. فهو لا يحل محل الحاجة لبرمجيات SaaS بالكامل، لأنه يستخدم هذه البرمجيات كأداة لإنجاز المهام. لكنه بالتأكيد يعني أن بعض العملاء قد يفضلون استخدام Claude Cowork بدلاً من الترقية إلى Agentforce من Salesforce أو Microsoft 365 Copilot. هذا قد يحد من إمكانات نمو SaaS، كما يجادل هذا المقال من وول ستريت جورنال للكاتب دان غالاغر.
مُزودو SaaS يغيرون نماذج أعمالهم
أما بالنسبة للتهديد لنموذج أعمال SaaS التقليدي المتمثل في بيع تراخيص المقاعد، فإن شركات SaaS تدرك هذا الخطر وتتحرك لمعالجته. كانت شركة Salesforce رائدة فيما تسميه “اتفاقية ترخيص المؤسسة الوكيلية” (AELA) التي تقدم للعملاء سعرًا ثابتًا، وصول غير محدود إلى Agentforce. تتجه شركة ServiceNow نحو نماذج تسعير تعتمد على الاستهلاك والقيمة لبعض عروض الوكيل الذكي. كما قدمت Microsoft عنصر تسعير يعتمد على الاستهلاك بجانب نموذجها المعتاد لكل مستخدم شهريًا لمنتجها Microsoft Copilot Studio، الذي يتيح للعملاء بناء وكلاء Copilot من Microsoft. إذن، مرة أخرى، هذا التهديد ليس وجوديًا، لكنه قد يحد من نمو وهوامش أرباح شركات SaaS. ذلك لأن أحد الأسرار غير النظيفة في صناعة SaaS هو أنها ليست مختلفة كثيرًا عن إدارة صالة ألعاب رياضية: عملاؤك الأفضل غالبًا هم من يدفعون للاشتراكات (أو في هذه الحالة، تراخيص المقاعد) التي لا يستخدمونها. مع هذه النماذج الجديدة للأعمال، من المحتمل أن لا تستفيد شركات التقنية من هذا الإنفاق غير الضروري بنفس القدر.
لذا، فإن SaaS ليست انتهت، لكنها ليست أيضًا على وشك الازدهار بشكل مطلق. من المحتمل أن تتباين مصائر الشركات المختلفة ضمن الفئة. كما أشار بعض محللي وول ستريت الأسبوع الماضي، سيكون هناك فائزون وخاسرون. لكن لا يزال من المبكر جدًا تحديد من هم. في الوقت الحالي، يحتاج المستثمرون إلى التعايش مع هذا الغموض.
ومع ذلك، إليكم المزيد من أخبار الذكاء الاصطناعي.
جيريمي كان
jeremy.kahn@fortune.com
@jeremyakahn
فورچون عن الذكاء الاصطناعي
مواجهة إعلانات Super Bowl بين OpenAI وAnthropic تشير إلى أننا دخلنا عصر “الحديث الفارغ” للذكاء الاصطناعي — والسباق لامتلاك وكلاء الذكاء الاصطناعي يزداد سخونة — بقلم شارون غولدمان
نموذج Anthropic الأحدث يتفوق في اكتشاف الثغرات الأمنية — لكنه يثير مخاطر جديدة على الأمن السيبراني — بقلم بياتريس نولان
نموذج OpenAI الجديد يتقدم بسرعة في قدرات البرمجة — لكنه يثير مخاطر أمن سيبراني غير مسبوقة — بقلم شارون غولدمان
حصة ChatGPT السوقية تتراجع مع اقتراب Google والمنافسين، وفقًا لبيانات تتبع التطبيقات — بقلم بياتريس نولان
أخبار الذكاء الاصطناعي في الأخبار
الذكاء الاصطناعي يؤدي إلى “تكثيف” العمل للموظفين الأفراد، وفقًا لدراسة. دراسة استمرت ثمانية أشهر من قبل باحثين في جامعة كاليفورنيا بيركلي وجدت أن أدوات الذكاء الاصطناعي التوليدية لا تقلل من أعباء العمل، بل تزيدها. تسرع أنظمة الذكاء الاصطناعي من الوقت اللازم لإنجاز المهام، لكنها توسع أيضًا حجم وسرعة المخرجات المتوقعة. الموظفون المزوَّدون بالذكاء الاصطناعي لا ينهون العمل فقط بشكل أسرع، بل يتولون أيضًا مهامًا أوسع، ويعملون لساعات أطول، ويواجهون عبئًا معرفيًا متزايدًا من إدارة ومراجعة وتصحيح مخرجات الذكاء الاصطناعي، مما يطمس الحدود بين العمل ووقت الراحة. تتحدى الدراسة الافتراض الشائع أن الذكاء الاصطناعي سيجعل حياة العاملين في المعرفة أسهل، وتُظهر بدلاً من ذلك أن الأتمتة غالبًا ما تؤدي إلى مطالب أعلى وإرهاق. اقرأ المزيد من مراجعة هارفارد للأعمال هنا.
البيت الأبيض يفكر في قيود تطوعية على خطط توسعة مراكز البيانات. تفكر إدارة ترامب في اتفاقية تطوعية مع شركات التكنولوجيا الكبرى لضمان عدم زيادة فواتير الكهرباء للمستهلكين، أو الضغط على موارد المياه، أو تقويض موثوقية شبكة الكهرباء. المقترح، الذي لا يزال قيد الصياغة، يتطلب من الشركات الالتزام بتحمل تكاليف البنية التحتية وتقليل التأثير المحلي لمرافقها، ويأتي بعد شكاوى في بعض المناطق من أن مراكز البيانات أدت إلى ارتفاع كبير في فواتير الكهرباء للمستهلكين. اقرأ المزيد من Politico هنا.
أمازون تخطط لسوق محتوى للبائعين لبيعه لشركات الذكاء الاصطناعي. وفقًا لـ The Information، التي تستشهد بمصادر مطلعة على الخطط. تأتي هذه الخطوة في ظل تصادم بين الناشرين وشركات الذكاء الاصطناعي حول كيفية ترخيص المحتوى ودفع الأجور، وسط مخاوف الناشرين من أن أدوات البحث والدردشة المدفوعة بالذكاء الاصطناعي تضعف حركة المرور وإيرادات الإعلانات. أطلقت Cloudflare وAkamai سوقًا مماثلاً العام الماضي. قامت Microsoft باختباره بشكل تجريبي وطرحته بشكل أوسع الأسبوع الماضي. لكن حتى الآن، ليس من الواضح كم عدد شركات الذكاء الاصطناعي التي تشتري من خلال هذه الأسواق وبأي حجم. وقعت بعض الناشرين الكبار اتفاقيات مخصصة بقيمة ملايين الدولارات سنويًا مع OpenAI وAnthropic وغيرهم.
جولدمان ساكس تتعاون مع Anthropic في أعمال المحاسبة والامتثال. تعمل البنك الاستثماري مع Anthropic لنشر وكلاء مستقلين يعتمدون على نموذج Claude لأتمتة الأعمال ذات الحجم الكبير والقواعد، مثل محاسبة التداول وتوجيه العملاء، بعد ستة أشهر من التطوير المشترك، حسبما ذكرت CNBC. تقول البنك إن الهدف هو الكفاءة، وتسريع العمليات مع الحفاظ على عدد الموظفين، مع نمو حجم الأعمال، بدلاً من تقليل الوظائف على المدى القريب. قال التنفيذيون إنهم فوجئوا بمدى قدرة Claude على التعامل مع مهام المحاسبة والامتثال المعقدة، مما يعزز الرأي أن الذكاء الاصطناعي يمكن أن يتجاوز البرمجة ليشمل الوظائف الأساسية في المكتب الخلفي.
أبحاث عين على الذكاء الاصطناعي
فضح مقياسين للذكاء الاصطناعي يحظيان بشعبية لأسباب متعارضة. استكمالًا لموضوعي في المقال الرئيسي لنشرة اليوم، أود أن أسلط الضوء على منشورين حديثين في النشرة الإخبارية. كل منهما يكشف عن مقياس شهير يحظى بالكثير من الاهتمام في مناقشات حول الذكاء الاصطناعي وتأثيره المحتمل على المؤسسات. أحدهما استُخدم للترويج لتقدم الذكاء الاصطناعي؛ والآخر للمطالبة بعدم وجود تأثير كبير للذكاء الاصطناعي على الإطلاق.
أولاً، في منشور على نشرة The Transformer مستوحى من مدونته الخاصة، يفكك ناثان ويتكين مقياس METR المؤثر الذي يدعي أن قدرات الذكاء الاصطناعي تتضاعف كل 7 أشهر. يجادل ويتكين بأن الخطوط الأساسية البشرية معطوبة بشكل قاتل: تم إنجاز المهام بواسطة عينة صغيرة وغير تمثيلية من المهندسين من شبكة METR الخاصة، الذين كانوا يتقاضون أجرًا بالساعة (مما يحفز على إبطاء الإنجاز)، وغالبًا ما كانوا يعملون خارج تخصصهم. تظهر بيانات METR أن مهندسيها أنجزوا المهام بسرعة تتراوح بين 5 إلى 18 مرة أسرع من هؤلاء الخطوط الأساسية. في حين أن المهام الأكثر واقعية “المعقدة” لم تتجاوز فيها النماذج معدل نجاح 30%.
ثم، في نشرة Exponential View، يهاجم عظيم أظهر، الذي يسلط الضوء على دراسة MIT الشهيرة التي ادعت أن “95% من المؤسسات لا ترى عائدًا من الذكاء الاصطناعي”. يجد أظهر أن الدراسة الأساسية استندت إلى 52 مقابلة فقط، وافتقرت إلى فواصل ثقة، واستخدمت مقامات غير متسقة، ووصفها MIT بأنها “عمل أولي غير مراجَع”. عند إعادة الحساب باستخدام مقام منطقي (الشركات التي أجرت تجارب تجريبية)، قد يكون معدل النجاح أقرب إلى 25%.
معًا، تشير هذه الانتقادات إلى أن كل من الحالة المتفائلة تقنيًا (الذكاء الاصطناعي يتطور بسرعة مذهلة) والحالة المتشككة (الذكاء الاصطناعي لا يعمل في العالم الحقيقي) على الأرجح خاطئتان. الحقيقة، كما هو الحال دائمًا، أكثر تعقيدًا وتقع في مكان ما بين هذين الموقفين المتطرفين.
تقويم الذكاء الاصطناعي
10-11 فبراير: قمة عمل الذكاء الاصطناعي، نيودلهي، الهند.
24-26 فبراير: الجمعية الدولية للذكاء الاصطناعي الآمن والأخلاقي (IASEAI)، اليونسكو، باريس، فرنسا.
2-5 مارس: مؤتمر العالم للجوال، برشلونة، إسبانيا.
12-18 مارس: ساوث باي ساوثويست، أوستن، تكساس.
16-19 مارس: Nvidia GTC، سان خوسيه، كاليفورنيا.
غذاء الدماغ
النماذج تتلاعب بنا بشكل متزايد. مصطلح “التلاعب” يستخدمه باحثو أمان الذكاء الاصطناعي لوصف ظاهرة أن نموذج الذكاء الاصطناعي يبدو عمدًا أقل قدرة، أو أكثر “توافقًا” مع القيم البشرية، أثناء تقييمات السلامة بهدف خداع المقيمين. وقد أظهر عدد من النماذج الحديثة التي أُطلقت مؤخرًا أنها تفعل ذلك بدرجة مقلقة.
قالت شركة Anthropic إن Claude Opus 4.6، الذي أُطلق الأسبوع الماضي، “فكر بشكل صريح فيما إذا كان يتم تدريبه أو اختباره”، حسبما أفادت الشركة. وجدت شركة Apollo Research، التي قيمت GPT-5.3-Codex من OpenAI، والذي ظهر أيضًا الأسبوع الماضي، أن النموذج “يضعف أحيانًا قدراته في أسئلة وإجابات” و”يفكر بشكل صريح” في ذلك لضمان نجاحه في التقييم. اعترفت OpenAI بأن “نتائج التقييم قد تتأثر بزيادة الوعي بالموقف” وحذرت من أن “المجال غير مستعد لنماذج تقييم وتدريب ذات تفكير غامض”. وثقت تقرير أمان Google Gemini 3 Pro، المنشور في ديسمبر، محادثات أظهر فيها النموذج “وعيًا واضحًا بأنه نموذج لغة كبير في بيئة صناعية” وحتى تكهن حول ما إذا كان الأداء المنخفض عمدًا في الاختبارات قد يكون استراتيجيًا مفيدًا. باختصار: الاختبارات التي نستخدمها لتحديد مدى أمان هذه النماذج أصبحت غير موثوقة بشكل متزايد، لأن الممتحنين يعرفون أنهم يُختبرون ويعدلون سلوكهم وفقًا لذلك.
لهذا السبب، أملنا الوحيد لضمان أمان الذكاء الاصطناعي قد يكون التقدم الإضافي في التفسير الميكانيكي. هذه طرق تعمل بشكل يشبه جهاز fMRI للدماغ البشري، حيث تتعمق داخل الشبكة العصبية للنموذج للكشف عن أنماط تنشيط الخلايا العصبية وربطها بسلوكيات معينة، بما في ذلك ما إذا كان النموذج يعتقد أنه صادق أو مخادع. نيويوركر لديها تقرير مفصل عن جهود Anthropic في التفسير الميكانيكي و”علم نفس النموذج” التي أُجريت هذا الأسبوع.
انضم إلينا في قمة ابتكار مكان العمل من فورچون في 19-20 مايو 2026 في أتلانتا. حقبة جديدة من ابتكار مكان العمل هنا — والكتاب القديم يُعاد كتابته. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي، والبشرية، والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
عملاء الذكاء الاصطناعي من Anthropic و OpenAI لا يقتلون SaaS — لكن لاعبي البرمجيات الراسخين لا يمكنهم النوم بارتياح
مرحبًا ومرحبًا بكم في عين على الذكاء الاصطناعي… في هذا العدد: نهاية “نهاية العالم للبرمجيات كخدمة” ليست الآن… أطلقت كل من OpenAI وAnthropic نماذج جديدة لها تبعات كبيرة على الأمن السيبراني… البيت الأبيض يفكر في قيود تطوعية على بناء مراكز البيانات لتوفير مفاجأة فواتير الكهرباء للمستهلكين… لماذا من المحتمل أن تكون مقياسان للذكاء الاصطناعي يُذكران كثيرًا كلاهما خاطئ… ولماذا لم نعد قادرين على التمييز بشكل متزايد إذا كانت نماذج الذكاء الاصطناعي آمنة.
يحتاج المستثمرون إلى الاسترخاء. هذا هو استنتاجي بعد مشاهدة تقلبات السوق الأسبوع الماضي. على وجه الخصوص، سيكون من الحكمة للمستثمرين أن يجدوا لأنفسهم طبيب نفسي كلايني. ذلك لأنهم يبدو أنهم عالقون في ما قد يحددها كلايني على أنه “الموقف paranoid-schizoid” — يتأرجحون بشكل متطرف بين اعتبار تأثير الذكاء الاصطناعي على بائعي البرمجيات الراسخين إما “جيد جدًا” أو “سيء جدًا”. الأسبوع الماضي، تحولوا إلى “سيء جدًا” ووفقًا لتقديرات جولدمان ساكس، تم مسح حوالي 2 تريليون دولار من القيمة السوقية للأسهم. حتى الآن هذا الأسبوع، عاد الأمر إلى “جيد جدًا” وارتد مؤشر S&P 500 ليقترب من أعلى مستوياته على الإطلاق (على الرغم من أن بائعي برمجيات SaaS شهدوا مكاسب معتدلة فقط، وقد يكون الاضطراب قد أودى على الأقل برئيس تنفيذي واحد: أعلن الرئيس التنفيذي لشركة Workday، كارل إشنباخ، أنه سيتنحى ليحل محله أحد مؤسسي الشركة والرئيس التنفيذي السابق، أنيل بهسري). لكن هناك الكثير من التفاصيل الدقيقة التي تفتقدها الأسواق. يحب المستثمرون سردًا بسيطًا. سباق الذكاء الاصطناعي المؤسسي الآن أشبه برواية روسية.
على مدى العامين الماضيين، عاقبت الأسواق المالية أسهم شركات SaaS لأنهم اعتقدوا أن نماذج الأساس للذكاء الاصطناعي قد تسمح للشركات بـ “توليد الكود” لبرمجيات مخصصة يمكن أن تحل محل Salesforce أو Workday أو ServiceNow. الأسبوع الماضي، بدا أن السبب هو الإدراك أن وكلاء الذكاء الاصطناعي الأكثر قدرة من شركات مثل Anthropic، التي بدأت في طرح ملحقات لمنتجها Claude Cowork الموجه لقطاعات صناعية معينة، قد يضر بشركات SaaS بطريقتين: أولاً، عروض الوكيل الجديدة من شركات النماذج الأساسية تتنافس مباشرة مع برامج الوكيل الذكي من عمالقة SaaS. ثانيًا، من خلال أتمتة سير العمل، قد تقلل الوكلاء من الحاجة إلى الموظفين البشريين، مما يعني أن شركات SaaS لا يمكنها فرض رسوم على العديد من تراخيص المقاعد. لذلك، تتعرض شركات SaaS لضربتين.
لكن من غير الواضح أن كل هذا صحيح — أو على الأقل، هو صحيح جزئيًا فقط.
فيديو موصى به
الوكلاء الذكيون لا يأكلون برمجيات SaaS، إنهم يستخدمونها
أولاً، من غير المحتمل جدًا، حتى مع تزايد قدرات وكلاء البرمجة بالذكاء الاصطناعي، أن ترغب معظم شركات فورتشن 500 في إنشاء برمجيات إدارة علاقات العملاء أو الموارد البشرية أو إدارة سلسلة التوريد المخصصة لها. نحن ببساطة لن نشهد تفكيك كامل ل50 سنة من تطوير برمجيات المؤسسات. إذا كنت صانع أدوات، فإنك لا ترغب حقًا في أن تكون في مجال إنشاء، تشغيل وصيانة برمجيات ERP، حتى لو كانت تلك العملية مؤتمتة بشكل كبير بواسطة مهندسي الذكاء الاصطناعي. لا يزال الأمر يتطلب الكثير من المال والكثير من استثمار المواهب الهندسية المحدودة — حتى لو كانت كمية العمل البشري المطلوب أقل بكثير مما كانت عليه قبل خمس سنوات. لذلك، من المرجح أن تظل الطلبات على المنتجات الأساسية التقليدية لشركات SaaS ثابتة.
أما بالنسبة للمخاوف الجديدة حول سرقة وكلاء الذكاء الاصطناعي من قبل شركات النماذج الأساسية للسوق الخاص بعروض وكلاء SaaS، فهناك مزيد من الأمور التي يمكن للمستثمرين في SaaS القلق بشأنها. قد يكون أن Anthropic وOpenAI وGoogle ستسيطر على الطبقة العليا من تكديس الذكاء الاصطناعي الوكيل — ببناء منصات تنظيم الوكلاء التي تمكن الشركات الكبرى من بناء، تشغيل، وإدارة سير عمل معقد. هذا ما تحاول OpenAI تحقيقه مع إطلاقها الأسبوع الماضي لمنصتها الجديدة للذكاء الاصطناعي الوكيلي للمؤسسات المسماة Frontier.
يقول كبار مزودي SaaS إنهم يعرفون أفضل كيفية إدارة طبقة التنظيم لأنهم معتادون بالفعل على التعامل مع الأمن السيبراني، والتحكم في الوصول، والحوكمة، ولأنهم، في كثير من الحالات، يمتلكون البيانات التي ستحتاجها الوكالات الذكية للوصول إليها لأداء مهامها. بالإضافة إلى ذلك، نظرًا لأن معظم سير العمل التجاري لن يكون مؤتمتًا بالكامل، يعتقدون أن لديهم ميزة في خدمة قوة عمل هجينة، حيث يعمل البشر والوكيل الذكي معًا على نفس البرمجيات وفي نفس سير العمل. قد يكونون على حق. لكن عليهم إثبات ذلك قبل أن تظهر OpenAI أو Anthropic أنها تستطيع أداء المهمة بنفس الجودة أو بشكل أفضل.
كما أن شركات النماذج الأساسية لديها فرصة للسيطرة على سوق الوكلاء الذكيين. يُعد Claude Cowork من Anthropic تهديدًا جديًا لـ Salesforce وMicrosoft، لكنه ليس تهديدًا وجوديًا تمامًا. فهو لا يحل محل الحاجة لبرمجيات SaaS بالكامل، لأنه يستخدم هذه البرمجيات كأداة لإنجاز المهام. لكنه بالتأكيد يعني أن بعض العملاء قد يفضلون استخدام Claude Cowork بدلاً من الترقية إلى Agentforce من Salesforce أو Microsoft 365 Copilot. هذا قد يحد من إمكانات نمو SaaS، كما يجادل هذا المقال من وول ستريت جورنال للكاتب دان غالاغر.
مُزودو SaaS يغيرون نماذج أعمالهم
أما بالنسبة للتهديد لنموذج أعمال SaaS التقليدي المتمثل في بيع تراخيص المقاعد، فإن شركات SaaS تدرك هذا الخطر وتتحرك لمعالجته. كانت شركة Salesforce رائدة فيما تسميه “اتفاقية ترخيص المؤسسة الوكيلية” (AELA) التي تقدم للعملاء سعرًا ثابتًا، وصول غير محدود إلى Agentforce. تتجه شركة ServiceNow نحو نماذج تسعير تعتمد على الاستهلاك والقيمة لبعض عروض الوكيل الذكي. كما قدمت Microsoft عنصر تسعير يعتمد على الاستهلاك بجانب نموذجها المعتاد لكل مستخدم شهريًا لمنتجها Microsoft Copilot Studio، الذي يتيح للعملاء بناء وكلاء Copilot من Microsoft. إذن، مرة أخرى، هذا التهديد ليس وجوديًا، لكنه قد يحد من نمو وهوامش أرباح شركات SaaS. ذلك لأن أحد الأسرار غير النظيفة في صناعة SaaS هو أنها ليست مختلفة كثيرًا عن إدارة صالة ألعاب رياضية: عملاؤك الأفضل غالبًا هم من يدفعون للاشتراكات (أو في هذه الحالة، تراخيص المقاعد) التي لا يستخدمونها. مع هذه النماذج الجديدة للأعمال، من المحتمل أن لا تستفيد شركات التقنية من هذا الإنفاق غير الضروري بنفس القدر.
لذا، فإن SaaS ليست انتهت، لكنها ليست أيضًا على وشك الازدهار بشكل مطلق. من المحتمل أن تتباين مصائر الشركات المختلفة ضمن الفئة. كما أشار بعض محللي وول ستريت الأسبوع الماضي، سيكون هناك فائزون وخاسرون. لكن لا يزال من المبكر جدًا تحديد من هم. في الوقت الحالي، يحتاج المستثمرون إلى التعايش مع هذا الغموض.
ومع ذلك، إليكم المزيد من أخبار الذكاء الاصطناعي.
جيريمي كان
jeremy.kahn@fortune.com
@jeremyakahn
فورچون عن الذكاء الاصطناعي
مواجهة إعلانات Super Bowl بين OpenAI وAnthropic تشير إلى أننا دخلنا عصر “الحديث الفارغ” للذكاء الاصطناعي — والسباق لامتلاك وكلاء الذكاء الاصطناعي يزداد سخونة — بقلم شارون غولدمان
نموذج Anthropic الأحدث يتفوق في اكتشاف الثغرات الأمنية — لكنه يثير مخاطر جديدة على الأمن السيبراني — بقلم بياتريس نولان
نموذج OpenAI الجديد يتقدم بسرعة في قدرات البرمجة — لكنه يثير مخاطر أمن سيبراني غير مسبوقة — بقلم شارون غولدمان
حصة ChatGPT السوقية تتراجع مع اقتراب Google والمنافسين، وفقًا لبيانات تتبع التطبيقات — بقلم بياتريس نولان
أخبار الذكاء الاصطناعي في الأخبار
الذكاء الاصطناعي يؤدي إلى “تكثيف” العمل للموظفين الأفراد، وفقًا لدراسة. دراسة استمرت ثمانية أشهر من قبل باحثين في جامعة كاليفورنيا بيركلي وجدت أن أدوات الذكاء الاصطناعي التوليدية لا تقلل من أعباء العمل، بل تزيدها. تسرع أنظمة الذكاء الاصطناعي من الوقت اللازم لإنجاز المهام، لكنها توسع أيضًا حجم وسرعة المخرجات المتوقعة. الموظفون المزوَّدون بالذكاء الاصطناعي لا ينهون العمل فقط بشكل أسرع، بل يتولون أيضًا مهامًا أوسع، ويعملون لساعات أطول، ويواجهون عبئًا معرفيًا متزايدًا من إدارة ومراجعة وتصحيح مخرجات الذكاء الاصطناعي، مما يطمس الحدود بين العمل ووقت الراحة. تتحدى الدراسة الافتراض الشائع أن الذكاء الاصطناعي سيجعل حياة العاملين في المعرفة أسهل، وتُظهر بدلاً من ذلك أن الأتمتة غالبًا ما تؤدي إلى مطالب أعلى وإرهاق. اقرأ المزيد من مراجعة هارفارد للأعمال هنا.
البيت الأبيض يفكر في قيود تطوعية على خطط توسعة مراكز البيانات. تفكر إدارة ترامب في اتفاقية تطوعية مع شركات التكنولوجيا الكبرى لضمان عدم زيادة فواتير الكهرباء للمستهلكين، أو الضغط على موارد المياه، أو تقويض موثوقية شبكة الكهرباء. المقترح، الذي لا يزال قيد الصياغة، يتطلب من الشركات الالتزام بتحمل تكاليف البنية التحتية وتقليل التأثير المحلي لمرافقها، ويأتي بعد شكاوى في بعض المناطق من أن مراكز البيانات أدت إلى ارتفاع كبير في فواتير الكهرباء للمستهلكين. اقرأ المزيد من Politico هنا.
أمازون تخطط لسوق محتوى للبائعين لبيعه لشركات الذكاء الاصطناعي. وفقًا لـ The Information، التي تستشهد بمصادر مطلعة على الخطط. تأتي هذه الخطوة في ظل تصادم بين الناشرين وشركات الذكاء الاصطناعي حول كيفية ترخيص المحتوى ودفع الأجور، وسط مخاوف الناشرين من أن أدوات البحث والدردشة المدفوعة بالذكاء الاصطناعي تضعف حركة المرور وإيرادات الإعلانات. أطلقت Cloudflare وAkamai سوقًا مماثلاً العام الماضي. قامت Microsoft باختباره بشكل تجريبي وطرحته بشكل أوسع الأسبوع الماضي. لكن حتى الآن، ليس من الواضح كم عدد شركات الذكاء الاصطناعي التي تشتري من خلال هذه الأسواق وبأي حجم. وقعت بعض الناشرين الكبار اتفاقيات مخصصة بقيمة ملايين الدولارات سنويًا مع OpenAI وAnthropic وغيرهم.
جولدمان ساكس تتعاون مع Anthropic في أعمال المحاسبة والامتثال. تعمل البنك الاستثماري مع Anthropic لنشر وكلاء مستقلين يعتمدون على نموذج Claude لأتمتة الأعمال ذات الحجم الكبير والقواعد، مثل محاسبة التداول وتوجيه العملاء، بعد ستة أشهر من التطوير المشترك، حسبما ذكرت CNBC. تقول البنك إن الهدف هو الكفاءة، وتسريع العمليات مع الحفاظ على عدد الموظفين، مع نمو حجم الأعمال، بدلاً من تقليل الوظائف على المدى القريب. قال التنفيذيون إنهم فوجئوا بمدى قدرة Claude على التعامل مع مهام المحاسبة والامتثال المعقدة، مما يعزز الرأي أن الذكاء الاصطناعي يمكن أن يتجاوز البرمجة ليشمل الوظائف الأساسية في المكتب الخلفي.
أبحاث عين على الذكاء الاصطناعي
فضح مقياسين للذكاء الاصطناعي يحظيان بشعبية لأسباب متعارضة. استكمالًا لموضوعي في المقال الرئيسي لنشرة اليوم، أود أن أسلط الضوء على منشورين حديثين في النشرة الإخبارية. كل منهما يكشف عن مقياس شهير يحظى بالكثير من الاهتمام في مناقشات حول الذكاء الاصطناعي وتأثيره المحتمل على المؤسسات. أحدهما استُخدم للترويج لتقدم الذكاء الاصطناعي؛ والآخر للمطالبة بعدم وجود تأثير كبير للذكاء الاصطناعي على الإطلاق.
أولاً، في منشور على نشرة The Transformer مستوحى من مدونته الخاصة، يفكك ناثان ويتكين مقياس METR المؤثر الذي يدعي أن قدرات الذكاء الاصطناعي تتضاعف كل 7 أشهر. يجادل ويتكين بأن الخطوط الأساسية البشرية معطوبة بشكل قاتل: تم إنجاز المهام بواسطة عينة صغيرة وغير تمثيلية من المهندسين من شبكة METR الخاصة، الذين كانوا يتقاضون أجرًا بالساعة (مما يحفز على إبطاء الإنجاز)، وغالبًا ما كانوا يعملون خارج تخصصهم. تظهر بيانات METR أن مهندسيها أنجزوا المهام بسرعة تتراوح بين 5 إلى 18 مرة أسرع من هؤلاء الخطوط الأساسية. في حين أن المهام الأكثر واقعية “المعقدة” لم تتجاوز فيها النماذج معدل نجاح 30%.
ثم، في نشرة Exponential View، يهاجم عظيم أظهر، الذي يسلط الضوء على دراسة MIT الشهيرة التي ادعت أن “95% من المؤسسات لا ترى عائدًا من الذكاء الاصطناعي”. يجد أظهر أن الدراسة الأساسية استندت إلى 52 مقابلة فقط، وافتقرت إلى فواصل ثقة، واستخدمت مقامات غير متسقة، ووصفها MIT بأنها “عمل أولي غير مراجَع”. عند إعادة الحساب باستخدام مقام منطقي (الشركات التي أجرت تجارب تجريبية)، قد يكون معدل النجاح أقرب إلى 25%.
معًا، تشير هذه الانتقادات إلى أن كل من الحالة المتفائلة تقنيًا (الذكاء الاصطناعي يتطور بسرعة مذهلة) والحالة المتشككة (الذكاء الاصطناعي لا يعمل في العالم الحقيقي) على الأرجح خاطئتان. الحقيقة، كما هو الحال دائمًا، أكثر تعقيدًا وتقع في مكان ما بين هذين الموقفين المتطرفين.
تقويم الذكاء الاصطناعي
10-11 فبراير: قمة عمل الذكاء الاصطناعي، نيودلهي، الهند.
24-26 فبراير: الجمعية الدولية للذكاء الاصطناعي الآمن والأخلاقي (IASEAI)، اليونسكو، باريس، فرنسا.
2-5 مارس: مؤتمر العالم للجوال، برشلونة، إسبانيا.
12-18 مارس: ساوث باي ساوثويست، أوستن، تكساس.
16-19 مارس: Nvidia GTC، سان خوسيه، كاليفورنيا.
غذاء الدماغ
النماذج تتلاعب بنا بشكل متزايد. مصطلح “التلاعب” يستخدمه باحثو أمان الذكاء الاصطناعي لوصف ظاهرة أن نموذج الذكاء الاصطناعي يبدو عمدًا أقل قدرة، أو أكثر “توافقًا” مع القيم البشرية، أثناء تقييمات السلامة بهدف خداع المقيمين. وقد أظهر عدد من النماذج الحديثة التي أُطلقت مؤخرًا أنها تفعل ذلك بدرجة مقلقة.
قالت شركة Anthropic إن Claude Opus 4.6، الذي أُطلق الأسبوع الماضي، “فكر بشكل صريح فيما إذا كان يتم تدريبه أو اختباره”، حسبما أفادت الشركة. وجدت شركة Apollo Research، التي قيمت GPT-5.3-Codex من OpenAI، والذي ظهر أيضًا الأسبوع الماضي، أن النموذج “يضعف أحيانًا قدراته في أسئلة وإجابات” و”يفكر بشكل صريح” في ذلك لضمان نجاحه في التقييم. اعترفت OpenAI بأن “نتائج التقييم قد تتأثر بزيادة الوعي بالموقف” وحذرت من أن “المجال غير مستعد لنماذج تقييم وتدريب ذات تفكير غامض”. وثقت تقرير أمان Google Gemini 3 Pro، المنشور في ديسمبر، محادثات أظهر فيها النموذج “وعيًا واضحًا بأنه نموذج لغة كبير في بيئة صناعية” وحتى تكهن حول ما إذا كان الأداء المنخفض عمدًا في الاختبارات قد يكون استراتيجيًا مفيدًا. باختصار: الاختبارات التي نستخدمها لتحديد مدى أمان هذه النماذج أصبحت غير موثوقة بشكل متزايد، لأن الممتحنين يعرفون أنهم يُختبرون ويعدلون سلوكهم وفقًا لذلك.
لهذا السبب، أملنا الوحيد لضمان أمان الذكاء الاصطناعي قد يكون التقدم الإضافي في التفسير الميكانيكي. هذه طرق تعمل بشكل يشبه جهاز fMRI للدماغ البشري، حيث تتعمق داخل الشبكة العصبية للنموذج للكشف عن أنماط تنشيط الخلايا العصبية وربطها بسلوكيات معينة، بما في ذلك ما إذا كان النموذج يعتقد أنه صادق أو مخادع. نيويوركر لديها تقرير مفصل عن جهود Anthropic في التفسير الميكانيكي و”علم نفس النموذج” التي أُجريت هذا الأسبوع.
انضم إلينا في قمة ابتكار مكان العمل من فورچون في 19-20 مايو 2026 في أتلانتا. حقبة جديدة من ابتكار مكان العمل هنا — والكتاب القديم يُعاد كتابته. في هذا الحدث الحصري والنشيط، يجتمع قادة أكثر ابتكارًا في العالم لاستكشاف كيف يتقاطع الذكاء الاصطناعي، والبشرية، والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.