ما هو التحدي الحقيقي الذي يواجهه العائد على الاستثمار في مجال الذكاء الاصطناعي في القطاع المالي؟
التحدي الحقيقي لاستخدام الذكاء الاصطناعي في مجال التمويل هو الثقة والتحقق. غالبًا ما تنتج أدوات الذكاء الاصطناعي العامة أغراضًا لا يمكن التحقق منها بسهولة، مما يجبر المحللين على قضاء وقت أطول في التحقق من النتائج أكثر من الوقت الذي يوفره الذكاء الاصطناعي، مما يخلق "ضريبة تحقق" خفية. في القرارات المالية عالية المخاطر، تؤدي عدم الدقة وانعدام الشفافية إلى تحويل مكاسب الكفاءة إلى مخاطر تشغيلية. لا يظهر العائد الحقيقي على الاستثمار إلا عندما يتم بناء الذكاء الاصطناعي على بيانات متخصصة ويقدم نتائج قابلة للتدقيق والتفسير بالكامل.
عصر "التحرك بسرعة وكسر القواعد" انتهى في عالم المال
حدد المبدأ الشهير لمارك زوكربيرج ، "تحرك بسرعة وحطم الأشياء"، عقدًا من الزمن في مجال التكنولوجيا.1 ومع ذلك، مع بدء تغلغل الذكاء الاصطناعي في قطاعات عالية المخاطر مثل الرعاية الصحية والقانون والمالية، بدأ الممارسون يدركون أن هذا المبدأ ليس فقط غير مناسب، بل إنه أمر مرفوض.
في مجال التمويل والمخاطر الذي نعمل فيه، حيث يتم اتخاذ القرارات المهمة على أساس البيانات، فإن السرعة دون الدقة تعتبر عائقًا. لا يتوافق "تحطيم الأشياء" مع المسؤوليات الائتمانية أو الرقابة التنظيمية أو تقييمات مخاطر المحفظة. في مجال التمويل، كما هو الحال في القانون والطب، فإن تكلفة الخطأ المحدد تفوق بكثير فائدة السرعة العامة.
أدى هذا الحساب الصارم إلى خلق مفارقة حاسمة في السوق. يتسارع اعتماد الذكاء الاصطناعي، لكن الثقة لا تزال تمثل القيد الأساسي على التوسع.
وفقًا Clarity AI مؤخرًا Clarity AI للمشاركين في الأسواق المالية، فإن 57.8٪ منهم يستخدمون بالفعل الذكاء الاصطناعي أو يخططون لاعتماده من أجل الاستدامة في غضون الـ 12 شهرًا القادمة. الحالة الاستخدامية الرئيسية المذكورة هي معالجة بيانات الاستدامة (66.9٪)، وهي مهمة تتطلب دقة فائقة. ومع ذلك، ذكر 68.6٪ و 37.2٪ من المشاركين في الاستطلاع أن الدقة والقابلية للتفسير هما الشاغلان الرئيسيان بالنسبة لهم.
في حين أن الذكاء الاصطناعي التوليدي يعد بمعالجة البيانات بسرعة السوق، فإنه يخلق مسؤولية الصندوق الأسود: إذا لم تتمكن من التحقق من الناتج، فلن تجرؤ على استخدامه. لقد دخلنا مرحلة لم يعد فيها العائق الرئيسي أمام عائد الاستثمار في الذكاء الاصطناعي هو قوة الحوسبة، بل الثقة والتكلفة الباهظة للتحقق من الناتج.
"ضريبة الثقة والتحقق"
نسمي هذا الاحتكاك "ضريبة الثقة والتحقق". إنها المسؤولية غير المعلنة لكفاءة الذكاء الاصطناعي، الناتجة عن خطأ تطبيق أدوات ذات أغراض عامة على مشاكل ذات أغراض خاصة.
تخيل أن محللاً، كجزء من عملية البحث قبل الاستثمار، مكلف بتحليل مجموعة كاملة من الإفصاحات المؤسسية لشركة ما من أجل إنشاء ملف مخاطر الاستدامة لمدير محفظته الاستثمارية. يبدو هذا فرصة مثالية لأتمتة الذكاء الاصطناعي. باستخدام نموذج اللغة الكبيرة العام (LLM) الذي يختاره، يتم إنجاز مهمة كانت ستستغرق ثلاث ساعات في أقل من 30 دقيقة.
ومع ذلك، سرعان ما يلاحظ المحلل وجود قيم خاطئة. فالشركة تسحب كمية من المياه تعادل حجم بحيرة سوبيريور بسبب تفسير خاطئ لوحدة "KM3". وتبلغ قيمة انبعاثاتها من النطاق 2 أكثر من إجمالي انبعاثات ألمانيا. هناك خطأ ما. يقضون الأربع ساعات التالية في محاولة تحليل نتائج الذكاء الاصطناعي والتحقق من صحتها، وتزداد الصعوبة بسبب عدم وجود شفافية في المصادر وعدم إمكانية تفسيرها.
تكمن المشكلة في بنية النماذج نفسها. تستمد نماذج LLMs ذات الأغراض العامة معلوماتها من مجموعة ضخمة من البيانات، وهي مزيج فوضوي من المصادر التي تشمل سلاسل Reddit ومقالات الرأي والبيانات منخفضة الجودة. عندما تطرح سؤالاً على نموذج عام، فإنه يقوم فعلياً بتمشيط هذا المحيط من البيانات. إن تمكنه من التقاط رؤى أو بيانات متخصصة حقاً في بعض الأحيان هو أمر عرضي.
في الكتابة الإبداعية، تعد هذه الطلاقة الواسعة ميزة. أما في مجال التمويل، فهي فخ.
التعامل مع الحقيقة كقيد
في السيناريوهات عالية المخاطر في المجالات المتخصصة (مثل المالية والطب والقانون)، يعد وجود عنصرين أمرًا بالغ الأهمية لتحقيق مكاسب حقيقية في الكفاءة وتجنب الوقوع في الفخ المذكور أعلاه: القدرات المتخصصة والشفافية. بدونهما، فإن "كفاءة" الذكاء الاصطناعي هي واجهة زائفة تنهار تحت وطأة الهلوسة وعبء التنظيف اليدوي الشاق.
يقدم مساعد المحلل Clarity AIمثالاً مقنعاً على قوة الذكاء المتخصص. على عكس الأدوات العامة مثل Gemini أو ChatGPT، التي تستمد رؤاها من ذلك المحيط الشاسع من المعلومات العامة، تعمل أدوات Clarity AIفي بيئة "غرفة نظيفة". بفضل بنية التوليد المعزز بالاسترجاع (RAG)، لا يمكن لمساعد Clarity AIالوصول إلا إلى المعلومات ذات الصلة بتحليل الاستدامة: الإفصاحات المؤسسية والمنهجيات والبيانات المنظمة التي تم التحقق من صحتها.
وهذا يعني أنه لن يكون قادراً على تزويد المستخدمين بوصفة لعشاء يوم الأحد، ولكنه يعني أيضاً أنه خالٍ من البيانات منخفضة الجودة التي تؤدي إلى أخطاء مكلفة في الأدوات العامة الغرض.
ومع ذلك، فإن اتباع نظام غذائي نظيف للبيانات لا يحل سوى جانب الإدخال من المعادلة. وللقضاء فعليًا على "ضريبة التحقق" على جانب الإخراج، يجب أن يظهر النموذج عمله. تعمل أدوات Clarity AIوفقًا لسياسة صارمة تتمثل في "لا رابط، لا حبر". إذا لم يتمكن المساعد من إثبات صحة نقطة بيانات معينة بمصدر يمكن التحقق منه، فإنه يعترف بخطأه بعبارة نادراً ما تسمع في عالم أدوات الذكاء الاصطناعي: "لا أستطيع العثور على دليل للإجابة على هذا السؤال". على عكس الأدوات العامة، لا يهدف هذا النموذج إلى إتقان المحادثة، بل إلى قابلية التدقيق، حيث يوفر معلومات موثوقة مع رابط مباشر إلى المصدر للتحقق بنقرة واحدة.
تتجاوز فلسفة الشفافية الجذرية هذه مجرد الاقتباسات البسيطة لتصل إلى المنطق الأساسي لمحركات استخراج البيانات التي تعمل بنظام LLM. بالنسبة للمقاييس المعقدة، لا يكفي عرض القيمة ورقم الصفحة؛ بل يجب على المستخدم أيضًا أن يفهم كيف تم الحصول على هذه القيمة. على سبيل المثال، يقوم Clarity AI المدرب على استخراج تكوين مجلس الإدارة بإنشاء دفاع خطوة بخطوة عن حساباته، وكشف التحويلات التي تحدث خلف الكواليس والتي غالبًا ما تكون غامضة في الإفصاحات غير المنظمة:
يذكر الإفصاح صراحة أن مجلس الإدارة يتألف من سبعة أعضاء. كما يذكر أن هيكل الحوكمة يشمل عضوين مستقلين، وهو ما نستخدمه كعدد الأعضاء المستقلين. يتم حساب النسبة المئوية للأعضاء المستقلين (28.57٪) من العدد المبلغ عنه مباشرة (2 من 7).
الخلاصة: الإثبات قبل الوعد
في عام 2026، سينقسم سوق مستخدمي الذكاء الاصطناعي. ستستمر مجموعة من الشركات في مواجهة "ضريبة التحقق"، حيث ستبني سير عمل غير مستقر على نماذج عامة الغرض تتطلب إشرافًا مستمرًا ومكلفًا. وستجد هذه الشركات أن "مكاسب الكفاءة" التي تحققها تبتلعها الحاجة إلى إعادة التحقق من كل ناتج مقارنة بالواقع. ستتأثر مؤشرات الأداء الرئيسية وأهداف النتائج الرئيسية سلبًا، وستفشل المشاريع التجريبية، وسيطرح الرؤساء أسئلة صعبة، وستُدرج شركاتهم بشكل مخزٍ في الإحصائيات التي تتصدر عناوين الصحف حول فشل الشركات في توسيع نطاق الذكاء الاصطناعي.
ستستبدل المجموعة الفائزة الطلاقة الواسعة للخبراء العامين بالنزاهة القابلة للتحقق للتخصص. وستنشر هذه الشركات أدوات ذكاء اصطناعي مصممة خصيصًا وجاهزة للتدقيق تعامل الحقيقة كقيد وليس كاقتراح. وستدرك أن الثقة في مجال التمويل عالي المخاطر ليست مهارة ناعمة، بل مقياسًا صارمًا. وستوفر الوقت والمال، وستتفوق على منافسيها في الابتكار والأداء من خلال فتح آفاق جديدة لخلق القيمة.
ستحقق الشركات التي تفي بهذا المعيار الجديد، والتي تطلب إثباتًا بدلاً من وعود، النجاح. مع انتقالنا من عصر "التحرك بسرعة وكسر القواعد" إلى عصر "التحرك بذكاء وبناء القواعد"، لم تعد سرعة المعالج هي العامل الحاسم في التوسع، بل أصبحت سلامة العملية هي العامل الحاسم.
المراجع
- كونستين، جوش. "رسالة S-1 من زوكربيرج على فيسبوك تحث على الفهم قبل الاستثمار." Tech Crunch. 1 فبراير 2012. تم الوصول إليه في: 4 فبراير 2026. https://techcrunch.com/2012/02/01/facebook-ipo-letter/






