مقدمة
تبنّي الذكاء الاصطناعي هو أكثر نمط فشل قابل للتنبّؤ في برامج التقنية اليوم، والفشل لا يتعلّق بالذكاء الاصطناعي في شيء. عبر الارتباطات التي أدرتُها أو رأيتُها في السنوات الأربع الماضية، يتكرّر الشكل نفسه. التجربة الأوّلية تنجح. النموذج يتفوّق على المرجعية. حالة الاستخدام حقيقية والراعي من جانب الأعمال متحمّس. ثم يتعثّر التوسّع. بعد ستّة أشهر، يكون النظام الإنتاجي في حالة انتظار، وانتقل الراعي إلى مهام أخرى، وفريق الذكاء الاصطناعي يُقدّم تقاريره إلى لجنة تسيير لا تملك صلاحية تغيير شيء. النموذج لا يزال يعمل. المؤسسة لا تعمل. وصلتُ إلى قناعة بأن تبنّي الذكاء الاصطناعي عملُ حوكمةٍ لا مشتريات. السؤال المثير ليس "أيّ نموذج نشتري؟"، بل "من يقرّر ما يُسمح للذكاء الاصطناعي بأن يُوصي به؟ ومن يُحاسَب حين يُخطئ؟ وكيف يتغيّر العمل البشري حوله؟"
لماذا تنجح التجارب ويفشل التوسّع
تنجح التجارب لأنها محدودة. نطاق مضبوط، مجموعة بيانات منتقاة، راعٍ واضح يملك صلاحية القرار داخل الحدود، وفريق مركّز بما يكفي لجعل النموذج يتصرّف. يفشل التوسّع لأن الحدود تختفي. البيانات أكثر فوضى، والرعاة جمع، وصلاحيات القرار غامضة، والفريق الذي بنى التجربة لا يملك الصلاحية ولا الطاقة لإعادة تصميم النموذج التشغيلي حول النشر. التجارب تُثبت التقنية. التوسّع يُثبت المؤسسة. أغلب البرامج لم تُنجز عمل المؤسسة، فينهار أغلب التوسّع بصمت — بطريقة تبدو مشكلةَ تسليم وهي في الحقيقة مشكلة حوكمة. أنظف طريقة لمعرفة هل سينجح التوسّع: اسأل هل صُمّمت الحوكمة قبل إغلاق المشتريات.
خمسة أسئلة على الحوكمة الإجابة عنها قبل المشتريات
- من يقرّر ما يُسمح لهذا الذكاء الاصطناعي بأن يُوصي به، وعلى أيّ أساس؟ بلا صلاحية صريحة، تتحوّل كل توصية إلى نقاش.
- من يُحاسَب حين يُخطئ الذكاء الاصطناعي؟ إن كان الجواب "لا أحد"، فلن تنشر المؤسسة النظام على قرارات ذات أثر.
- كيف تُدقَّق المخرجات؟ إن لم يوجد مسار تدقيق، فلا يمكن الدفاع عن النظام أمام مُنظِّم أو عضو مجلس أو عميل غاضب.
- كيف يتغيّر العمل البشري حول الذكاء الاصطناعي؟ إن كان الجواب "لا يتغيّر"، فسيُتجاهَل الذكاء الاصطناعي أو تُعكَس قراراته، ولن تتحقّق المكاسب الإنتاجية.
- كيف يُصان النموذج ويُعاد تدريبه ويُتقاعد؟ إن كان الجواب "سنُقرّر لاحقاً"، فقد بدأت ساعة الدَّين المؤسسي للتوّ.
أتمتة دفع الفواتير لعميلَين، بفارق اثني عشر شهراً
عميلان من عملائي أطلقا برامج أتمتة دفع الفواتير بفارق اثني عشر شهراً. التقنية كانت متطابقة تقريباً: تدفّق عمل قائم على التعرّف الضوئي ونموذج لغة كبير لمعالجة الفواتير، مع مراجعة بشرية للحالات عالية القيمة أو الغامضة. وأنتجت التجارب الأوّلية نتائج متطابقة. التوسّع تباعد تماماً. العميل الأوّل قضى ستّة أسابيع يُجيب على الأسئلة الخمسة أعلاه قبل المشتريات. حدّد فئات الفواتير التي يُسمح للنظام باعتمادها دون إشراف، وما يتطلّب مراجعاً واحداً، وما يتطلّب توقيعَين، وما لا يُسمح للنظام بلمسه. سمّى مسار المساءلة حين يُخطئ النظام. نشر مسار التدقيق للمراجعة الداخلية في اليوم الأوّل. بعد اثني عشر شهراً، يعالج النظام نحو سبعين بالمئة من الفواتير دون إشراف، وأُعيد توجيه فريق دفع الفواتير لإدارة المورّدين، وتُسجّل المالية التحوّلَ بوصفه تحسيناً هيكلياً. أمّا العميل الثاني، فعامل التوسّع مشروعَ تسليم. أُغلقت المشتريات. نُشر النظام. أوّل مرّة صنّف فيها فاتورةً بقيمة أربعين ألف دولار خطأً، أمضى ثلاثة مديرين تنفيذيين أربعة اجتماعات يتحاجّون حول من كان يجب أن يُمسكها. بعد ستّة أشهر، كان النظام يعمل لكن يتجاوزه ثمانون بالمئة من فريق دفع الفواتير، واعتُبر البرنامج مُخيّباً للآمال. تقنية واحدة. عمارة مؤسسية مختلفة. نتيجتان مختلفتان تماماً. الفرق كلّف العميلَ الأوّل ستّة أسابيع تصميم، ووفّر عليه عاماً كاملاً من سداد دَين مؤسسي.
قول قديم يستحقّ التكرار
"التقنية جاهزة. المؤسسة قلّما تكون."
— أردّدها للعملاء أكثر ممّا يُريحني أن أكون مُحقّاً
فخّ المشتريات
المشتريات ليست وظيفةً سيّئة؛ هي نقطة الانطلاق الخاطئة. حين يبدأ تبنّي الذكاء الاصطناعي في المشتريات، يدور الحديث حول الأدوات: أيّ مورّد، أيّ منصّة، أيّ نموذج. هذه أسئلة صحيحة في منتصف العملية. لكنّها كارثية في بدايتها. نقطة البداية هي الحوكمة: من يقرّر، ومن يُحاسَب، وكيف يتغيّر العمل. المشتريات تُحوّل تلك القرارات إلى أوامر شراء. حين تتقدّم المشتريات، يصل أمر الشراء والقرارات لا تزال غير مُتّخذة. لا يستطيع المورّد الإجابة عليها — ليس في مبناك، ولا يُدير نموذجك التشغيلي، ولا يملك صلاحية على صلاحيات قرارك. على المؤسسة أن تُجيب عنها بنفسها، قبل إغلاق المشتريات. أيّ شيء آخر هو دَين مؤسسي سيُسدّده فريق القيادة التالي.
ثلاثة أنماط حوكمة تعمل
- صلاحية مُتدرّجة على مخرجات الذكاء الاصطناعي. عرّف صراحةً أيّ المخرجات بلا إشراف، وأيّها يتطلّب مراجعاً بشرياً واحداً، وأيّها يتطلّب توقيعَين، وأيّها لا يُسمح للنظام بإنتاجه. اضبط النظام على درجة المخاطرة.
- منتدى مراجعة قائم له أنياب. اجتماع شهري يُدقّق مخرجات الذكاء الاصطناعي في الإنتاج، له مسار تصعيد مُحدّد وصلاحية إعادة النشر للوراء. بلا أنياب، المنتدى مسرح.
- بنود انتهاء صلاحية على عمليات النشر. كل نشر لذكاء اصطناعي يحمل تاريخ مراجعة موثّق. بحلول ذلك التاريخ، إمّا أن يُجدَّد النموذج، أو يُعاد تدريبه، أو يُتقاعد. الذكاء الاصطناعي المُفعَّل افتراضياً دَينٌ مؤسسي ينتظر الحدوث.
أين تُخطئ أغلب المؤسسات
- تبدأ بالمشتريات، آملةً أن يُعرّف المورّد الحوكمة. لا يستطيع المورّد.
- تُسند أخلاقيات الذكاء الاصطناعي إلى فريق عمل بلا صلاحية تشغيلية. عمل الأخلاقيات يحتاج أنياباً.
- تعامل مراجعة أخلاقيات الذكاء الاصطناعي بوصفها بوّابة موافقة لمرّة واحدة، لا انضباطاً تشغيلياً مستمرّاً.
- تخلط بين القابلية للتفسير والمساءلة. نموذج يمكن شرحه ولا مالك مُسمّى له يبقى بلا حوكمة.
- تبني التقنية ثم تطلب من إدارة التغيير نشرها. لا تستطيع إدارة التغيير سدّ ثغرات الحوكمة بأثر رجعي.
ختام
الذكاء الاصطناعي تقنية تُعاقب على ثغرات الحوكمة بأسرع وقت، لأن نتائجه تتسع بسرعة ومدخلاته غير مألوفة. المؤسسات التي ستُوسِّع الذكاء الاصطناعي بنجاح في دول الخليج خلال السنوات الخمس المقبلة لن تكون صاحبة أكبر ميزانيات النماذج. ستكون التي تعاملَ قادتُها مع التبنّي بوصفه تصميماً مؤسسياً منذ المحادثة الأولى. فاتورة المشتريات ستكون أصغر بند في تحليل ما بعد المشروع. العمارة المؤسسية ستكون البند الذي يُفسّر لماذا اشتغل البرنامج. هذا هو الدرس نفسه الذي يُعلّمه التحوّل الرقمي منذ عقدَين. الذكاء الاصطناعي فقط يجعل الدرس أصعب تجاهلاً. إن كنتَ تُدير برنامج ذكاء اصطناعي الآن ولم تُجِب على الأسئلة الخمسة كتابةً، فأنظف ما يمكنك فعله هذا الأسبوع هو إيقاف المشتريات حتى تُجيب. ستّة أسابيع من تصميم الحوكمة أرخص تأمين ضدّ عام من العمل الإصلاحي. المؤسسات التي تعلّمت هذا هي التي لا تزال برامج ذكائها الاصطناعي قائمة.