الذكاء الاصطناعي التوليدي هو تقدم تكنولوجي مهم استحوذ على اهتمام الحكومات، والجمهور، وقادة الأعمال. ولكنه أيضًا يطرح تحديات فريدة لأولئك المكلفين بإدارة المخاطر والتهديدات المرتبطة بهذه التكنولوجيا. في هذه الحلقة من بودكاست "من داخل غرفة الإستراتيجية"، تتحدث "إيدا كريستنسن"، القائدة المشاركة لممارسات المخاطر والمرونة بمؤسسة ماكنزي و "أوليفر بيفان"، قائد إدارة المخاطر المؤسسية، مع "شون براون"، المدير العالمي للتسويق والاتصالات في ممارسات الاستراتيجية والتمويل المؤسسي، حيث يناقشون بالحوار كيف يجب على قادة الأعمال التعامل مع التأثير المتسارع لتطور الذكاء الاصطناعي التوليدي، ويستعرضون الاستراتيجيات التي يمكن استخدامها للتكيف مع هذه التكنولوجيا المتطورة. كما سيتطرق الحديث إلى الطرق المثلى للاستعداد لمواجهة التحديات المستقبلية وضمان استخدام الذكاء الاصطناعي بشكل آمن وفعّال.
المزيد من الرؤى والتقارير من ماكنزي باللغة العربية
شاهد مجموعة المقالات الخاصة بنا باللغة العربية، واشترك في النشرة الإخبارية العربية الشهرية
شون براون: بالنظر إلى مدى حداثة هذه التكنولوجيا، من المدهش حقًا مدى التطور الذي شهدناه في هذا المجال، وكيفية حدوث ذلك وانتشاره بهذه السرعة. لكن، كما هو الحال مع جميع التقنيات الجديدة، هناك مخاطر مرتبطة بها، وربما تكون المخاطر هنا أكبر مما هي مع بعض التقنيات الأخرى. "إيدا"، هل تلاحظين أن عملاءك يتبنون الذكاء الاصطناعي التوليدي بشكل واسع؟
إيدا كريستنسن: نلاحظ أن هناك فئة ممن تبنوا هذا التطور منذ بدايته متحمسين للغاية. في المقابل، هناك العديد ممن يتعاملون بحذر ويقولون، "ربما من الأفضل أن ننتظر ونرى" أما نحن في ماكنزي، فنؤمن بشدة أن الذكاء الاصطناعي التوليدي هو تكنولوجيا دائمة ستستمر في التطور، وأن هذه التكنولوجيا ستوفر فرصًا استراتيجية غير مسبوقة تمتد عبر مختلف الصناعات وتشمل تقريبًا كل جانب من جوانب الأعمال.
هناك مسار واضح يمكننا من خلاله الاستفادة من فوائد الذكاء الاصطناعي التوليدي الرائعة. كما أننا نؤمن بأن الانتظار وعدم التحرك لتبني هذه التكنولوجيا ليس خيارًا مجديًا؛ فقد أصبح الأمر ضرورة استراتيجية. فمن منظور إدارة المخاطر، يمكننا القول إن عدم التعمق في هذا المجال يشكل خطرًا استراتيجيًا كبيرًا.
ومع ذلك، هناك بعض المخاطر الحقيقية المرتبطة بنشر الذكاء الاصطناعي التوليدي. لكي تنجح المؤسسة في استخدام هذه التكنولوجيا، فهي تحتاج إلى استراتيجية دفاعية وهجومية معًا.
شون براون: إذن، "أوليفر"، مع كل هذه المخاطر المرتبطة بالذكاء الاصطناعي التوليدي، ما هي القوانين واللوائح التي يجب على الشركات الانتباه لها والالتزام بها؟
أوليفر بيفان:من المهم فهم كيف تتبنى الجهات القضائية المختلفة مناهج وأساليب متباينة في التعامل مع مخاطر الذكاء الاصطناعي التوليدي وكيفية تنظيمه. فقد تتبع كل منطقة سياسات وإجراءات تنظيمية مختلفة لإدارة هذه المخاطر.
يختلف هذا بشكل كبير عما رأيناه في بدايات تنظيم خصوصية البيانات. في ذلك الوقت، كانت اللائحة العامة لحماية البيانات1 هي المعيار الرئيسي الذي اعتمدت عليه العديد من الشركات. فقد قامت هذه الشركات بتعديل سياساتها الأولية لتتوافق مع اللائحة، ومن ثم استخدمتها كأساس لتطوير سياساتها عالميًا. أما في حالة الذكاء الاصطناعي التوليدي، فلا يوجد معيار عالمي موحد، مما يجعل إدارة مخاطره أكثر تعقيدًا وتنوعًا حسب المنطقة.
لقد شهدنا الكثير من التشريعات التي استُلهمت من اللائحة العامة لحماية البيانات وجاءت بعدها. كما اعتمدت بعض القوانين في كاليفورنيا بشكل مباشر على اللائحة أيضًا. ولكننا نشعر أن تطبيق نفس النهج مع الذكاء الاصطناعي التوليدي سيكون أكثر تعقيدًا وصعوبة.
تبدو الفائدة الكبيرة التي يمكن أن يوفرها الذكاء الاصطناعي وكيف يمكن أن يؤثر مباشرة على المواطنين أمرًا جليًا للغاية للقطاع العام. ومع ذلك، هناك مخاطر تتعلق بخصوصية البيانات، والأمن السيبراني، واستخدام التزييف العميق، والتي يمكن أن تؤثر بشكل كبير على الانتخابات والأحداث العامة الأخرى.
تتجه العديد من الجهات الحكومية والمؤسسات العامة إلى اتخاذ موقف استباقي في التعامل مع الذكاء الاصطناعي التوليدي، وذلك لتحديد السياسات والإجراءات المناسبة. ويصبح هذا الأمر أكثر أهمية عند العمل في مناطق متعددة تتباين فيها القوانين والتشريعات. لذلك، يتعين على المؤسسات أن تكون مستعدة لمواكبة التغييرات التنظيمية في كل منطقة تعمل بها. فمن الضروري أن تقوم هذه المؤسسات بتكييف استراتيجياتها وتضمين الإجراءات اللازمة بشكل مرن وسريع لضمان الامتثال للقوانين والتشريعات الجديدة. بعبارة أخرى، المرونة والتكيف هما المفتاح لضمان استخدام الذكاء الاصطناعي بشكل مسؤول ومتوافق مع الأنظمة القانونية المتنوعة.
شون براون: كيف تختلف المخاطر والقوانين التنظيمية بين الذكاء الاصطناعي التوليدي وبين التطورات الأخرى في مجال الذكاء الاصطناعي، مثل التعلم الآلي؟
أوليفر بيفان: من وجهة نظري، الذكاء الاصطناعي التحليلي، الذي كان يشكل أساس تطوير التعلم الآلي قبل ظهور الذكاء الاصطناعي التوليدي، يعتمد بشكل رئيسي على نقطتين أساسيتين.
النقطة الأولى تتمثل في خصوصية البيانات، وهي تشمل التفكير في كيفية استخدام تلك النماذج للبيانات، وكيفية دمج البيانات لإجراء التحليلات الاصطناعية أو تحسين النتائج المحتملة.
أما النقطة الثانية فهي تتعلق بالعدالة في هيكل النموذج. فهناك قلق واسع من أن هذه النماذج يمكن أن تخرج نتائج مختلفة تبعًا لعوامل مثل لون البشرة أو الجنس. أصبحت هذه المخاوف حول هذا الأمر واضحة خصوصًا في الولايات المتحدة، حيث أثار الذكاء الاصطناعي التحليلي قضايا كبيرة تتعلق بتشريعات الإسكان العادل واتخاذ قرارات الائتمان في الخدمات المالية. فالنماذج قد تكون منحازة، مما يؤدي إلى قرارات غير منصفة تتأثر بالعوامل الديموغرافية.
أما الآن، أصبح هناك وعي متزايد بالتحديات المرتبطة بقابلية تفسير النماذج على سبيل المثال.
من الواضح أن هناك مخاطر كبيرة مرتبطة باستخدام الذكاء الاصطناعي التوليدي لأغراض ضارة، خصوصًا فيما يتعلق بتقنية التزييف العميق. يمكن لهذه التكنولوجيا أن تنتج صورًا أو مقاطع فيديو مزيفة تبدو حقيقية للغاية، سواء لهويات فردية أو لشركات. ويتسبب ذلك في مخاطر هائلة تمس السمعة، حيث يمكن أن يتم انتحال شخصيات أو شركات بشكل مقنع، مما يؤدي إلى فقدان الثقة وتدمير السمعة. بالإضافة إلى ذلك، تواجه الحكومات تحديات كبيرة في التصدي لهذه التهديدات وحماية مواطنيها ومؤسساتها من الاستخدامات الخبيثة لهذه التكنولوجيا المتقدمة.
إيدا كريستنسن: تتطور المخاطر المرتبطة بالذكاء الاصطناعي التوليدي بسرعة، لكنها تعتبر امتدادًا لأنواع المخاطر التي تعاملنا معها منذ فترة طويلة. الفرق الآن هو وجود بعض التغييرات الجديدة التي تضيف مستوى جديدًا من التعقيد.
يتطلب جانب العدالة في نماذج الذكاء الاصطناعي شفافية حقيقية حول كيفية عمل هذه النماذج. في معظم الصناعات، يكون جزءً من الحل هو شرح كيفية عمل النموذج بوضوح. في النماذج التحليلية التقليدية، سواء كانت تخضع للتنظيم أم لا، يمكنك تفسير النتائج بدقة. ويساعد هذا الوضوح في تعزيز الثقة والراحة تجاه استخدام النموذج.
يختلف التعامل مع الذكاء الاصطناعي التوليدي تمامًا عن النماذج التقليدية، لأن تفسير هذه النماذج وفهم كيفية عملها ليس واضحًا. وعلى الرغم من أن المخاطر قد تكون مشابهة، إلا أن التحدي يكمن في كيفية تعامل الشركات والهيئات التنظيمية مع هذه النماذج التي لا يمكن فتحها وتحليلها بسهولة. بدلاً من ذلك، يجب الاعتماد على مؤشرات أخرى لضمان أن هذه النماذج عادلة وغير منحازة. هذا يعني أن علينا إيجاد طرق جديدة للشعور بالراحة والثقة في استخدام هذه التكنولوجيا.
شون براون: برأيك، هل ترى أن هناك مجالات محددة تركز عليها الحكومات والهيئات التنظيمية عند تقييم مخاطر الذكاء الاصطناعي؟ أم أن الاهتمام الرئيسي ينصب على مدى إمكانية تفسير وفهم كيفية عمل هذه النماذج؟
أوليفر بيفان: الأهم هو الوصول إلى فهم أعمق لكيفية عمل هذه النماذج. يجب أن تكون هناك ثقة من قبل الشركات والحكومات في أن النماذج تقدم نتائج يمكن تفسيرها وفهمها بطريقة ما. بمعنى آخر، من الضروري أن تكون النتائج التي تنتجها هذه النماذج شفافة وقابلة للتفسير لضمان تحقيق عنصر الثقة عند استخدامها.
يكمن التحدي الرئيسي مع نماذج الذكاء الاصطناعي التوليدي في فهم كيفية عمل هذه النماذج وأيضًا تحديد مصادر البيانات التي تعتمد عليها. هناك نقاش حالي حول استخدام علامات مائية للمساعدة في معرفة ما إذا كان المحتوى قد تم إنشاؤه بواسطة الذكاء الاصطناعي أو بواسطة البشر من خلال العمليات الإبداعية التقليدية. السؤال هو: هل يمكننا التمييز بين المحتوى الذي أنشأه الذكاء الاصطناعي والمحتوى الذي أنشأه البشر؟ هذا التحدي يتطلب تطوير طرق جديدة لضمان الشفافية والثقة في استخدام هذه التقنيات.
ترتبط تحديات الملكية الفكرية باستخدام الذكاء الاصطناعي التوليدي في إنشاء المحتوى. ومع اقتراب الانتخابات القادمة، من المتوقع أن تركز الحكومات بشكل كبير على كيفية تأثير هذه التكنولوجيا على سير العملية الانتخابية. هناك حاجة إلى التفكير في كيفية بناء ثقة العامة في هذه الأنظمة، وضمان استعداد الناس لاستخدامها والتفاعل معها بشكل إيجابي. هذا يتضمن ضمان أن الجمهور يثق في نتائج هذه الأنظمة ويشعر بالأمان عند استخدامها.
إيدا كريستنسن: لن يندهش أحد إذا قلنا إن تنظيمات الذكاء الاصطناعي التوليدي لا تزال في مراحلها المبكرة. نتوقع صدور المزيد من اللوائح قريبًا، خاصة تلك المتعلقة بالصناعات المحددة مثل الخدمات المالية. فمن المؤكد أن هذا القطاع سيواجه تنظيمات أكثر تحديدًا وتفصيلًا. لذلك، من الأفضل أن نركز على تطوير استراتيجيات جديدة تأخذ في الاعتبار القضايا الرئيسية المتعلقة بالذكاء الاصطناعي التوليدي، بدلاً من محاولة تحسين التنظيمات الحالية فقط، لأن هذه الاستراتيجية لن تكون فعالة على المدى الطويل.
شون براون: بالنسبة للشركات التي تعمل في مجال الذكاء الاصطناعي التوليدي منذ فترة، ما هي المبادئ التي تتبعها لضمان استخدام هذه التكنولوجيا بأمان؟ ما هي القواعد والإرشادات التي تلتزم بها هذه الشركات لتجنب المخاطر وضمان أن الذكاء الاصطناعي التوليدي يُستخدم بطريقة مسؤولة وآمنة؟
إيدا كريستنسن: أولاً، لا تدع الآلات تعمل بمفردها دون تدخل بشري. يجب أن يكون هناك دائمًا جانب بشري متداخل في العملية. يتم استخدام نتائج نماذج الذكاء الاصطناعي كمدخلات تساعد البشر في اتخاذ القرارات، وليس كقرارات نهائية بحد ذاتها. هذا يعني أن النماذج توفر معلومات وأفكار يمكن للبشر الاعتماد عليها لتقييم الوضع واتخاذ القرار المناسب، ولكن لا يجب الاعتماد على هذه النماذج لاتخاذ القرارات النهائية دون مراجعة بشرية.
ما هو مطمئن بالأمر هو أن الذكاء الاصطناعي التوليدي يجعل من السهل إجراء اختبارات سريعة للتحقق من العدالة في الأنظمة. ويمكن أن يكون هذا النوع من الذكاء الاصطناعي مفيدًا جدًا في تعزيز قدرات إدارة المخاطر. ويكمن التحول الأكبر الذي يجلبه الذكاء الاصطناعي التوليدي، مقارنة ببرامج الذكاء الاصطناعي المسؤولة التي تعمل عليها معظم المؤسسات، في الشفافية وقدرة النماذج على تفسير قراراتها. بالإضافة إلى ذلك، تبرز أهمية مراقبة وتقييم أداء هذه النماذج بشكل مستمر لضمان عملها بطريقة عادلة ومسؤولة. بذلك، يساهم الذكاء الاصطناعي التوليدي في تحسين العدالة والإدارة الفعالة للمخاطر من خلال الشفافية والمراقبة الدائمة.
يمثل مراقبة تطور الذكاء الاصطناعي التوليدي بمرور الوقت تحديًا فريدًا من نوعه. لهذا السبب، نرى أن الشركات التي نعمل معها تستثمر في أدوات وتقنيات لمراقبة هذا التطور بشكل مستمر. وقد لاحظنا بأن هذه الشركات تبحث دائماً عن الإضافات والفحوصات الإضافية التي يمكن وضعها لضمان دقة وموثوقية النتائج التي ينتجها الذكاء الاصطناعي. بمعنى آخر، الشركات في رحلة بحث دائمة عن طرق جديدة لضمان الراحة والثقة في استخدام مخرجات الذكاء الاصطناعي التوليدي، مما يعزز من كفاءتها وموثوقيتها.
شون براون: هل هناك مخاطر أخرى لم نناقشها تتعلق بالذكاء الاصطناعي التوليدي؟ وكيف ينبغي على الشركات التعامل مع جميع أنواع المخاطر التي قد تنشأ عند استخدام هذه التكنولوجيا؟ بمعنى آخر، ما هي الاستراتيجيات التي يجب أن تتبناها الشركات لتقييم وإدارة كل المخاطر المحتملة بشكل شامل، لضمان استخدام آمن وفعّال للذكاء الاصطناعي التوليدي؟
إيدا كريستنسن: هناك جوانب مهمة تتعلق بخصوصية البيانات وجودتها. قمنا في ماكنزي، بإنشاء قاعدة بيانات تحتوي على جميع معارفنا الخاصة واستخدمنا هذه البيانات لتدريب بعض تطبيقاتنا. يسمح هذا النهج لنا بالتحكم في جودة البيانات التي نستخدمها، مما يمنحنا ثقة كبيرة في النتائج التي تنتجها نماذجنا. بفضل هذا التحكم، نضمن أن تكون البيانات موثوقة ودقيقة، مما يعزز من سلامة وفعالية التطبيقات التي نعتمد على الذكاء الاصطناعي في تشغيلها.
لقد أصبح استخدام الذكاء الاصطناعي التوليدي لأغراض ضارة أكثر شيوعًا، خاصة مع ظهور تقنيات التزييف العميق وعمليات الاحتيال. على سبيل المثال، يمكن لشخص ضار انتحال هويتك وإرسال بريد إلكتروني إلى عمك يطلب منه تحويل مبلغ مالي. كما يمكن لهذا الشخص كتابة هذه الرسائل وترجمتها إلى أي لغة بسهولة باستخدام الذكاء الاصطناعي التوليدي. نحن جميعًا ندرك مخاطر البريد العشوائي والاحتيال الإلكتروني. في الماضي، كان يمكن اكتشاف رسائل الاحتيال من خلال علامات مثل القواعد اللغوية السيئة واللغة غير المنطقية. لكن الآن، باستخدام الذكاء الاصطناعي التوليدي، يمكن إنشاء رسائل احتيالية ذات جودة عالية، مما يجعل اكتشافها أكثر صعوبة.
أخيرًا، هناك نوعان من المخاطر التي يجب مراعاتها عند استخدام الذكاء الاصطناعي التوليدي وهي المخاطر الاستراتيجية ومخاطر الطرف الثالث، حيث تتعلق المخاطر الاستراتيجية بكيفية استخدام الشركات للذكاء الاصطناعي وكيفية وضع نفسها في السوق بشكل تنافسي. هذا يشمل التأثيرات الأوسع على المجتمع ككل. على سبيل المثال، يتطلب الذكاء الاصطناعي التوليدي قوة حاسوبية كبيرة، مما يثير تساؤلات حول مدى توافق ذلك مع التزامات الشركات البيئية والاجتماعية والحوكمة، كما يمكن أن يؤدي استخدام الذكاء الاصطناعي التوليدي إلى تأثيرات على سوق العمل وفرص التوظيف، حيث يمكن أن يحل محل بعض الوظائف أو يخلق وظائف جديدة.
ما هو تأثير الذكاء الاصطناعي التوليدي على القوى العاملة؟ وكيف يجب على الشركات التفكير في التزاماتها تجاه موظفيها في ضوء التحولات التي سيحدثها الذكاء الاصطناعي التوليدي؟ كما ذكرنا، هذه التكنولوجيا لن تقلل من عدد الوظائف بشكل عام، لكنها ستغير طبيعة العديد من الوظائف بشكل كبير. يجب على الشركات أن تلتزم بدعم موظفيها وتوفير التدريب اللازم لهم للتكيف مع هذه التغييرات. هذا يتطلب إعادة النظر في استراتيجيات إدارة القوى العاملة لضمان أن الموظفين مجهزون لمواجهة التحديات الجديدة والاستفادة من الفرص التي يوفرها الذكاء الاصطناعي التوليدي.
هذه الأسئلة والتحديات حقيقية وتتطلب تفكيرًا عميقًا وحلولًا مدروسة.
شون براون: إذا فهمت الأمر بشكل صحيح، فإن المعلومات التي يدخلها الموظفون في استفساراتهم يمكن أن تؤثر على كيفية تحديث وتطوير نموذج الذكاء الاصطناعي التوليدي. هل هذا يعني أن الشركات بحاجة إلى مراقبة الأسئلة التي يطرحها الموظفون على الذكاء الاصطناعي؟
إيدا كريستنسن: بالطبع، يمكن أن يكون الأمر مخيفًا بعض الشيء، أليس كذلك؟ أي استفسار يتم الرد عليه من قبل الذكاء الاصطناعي التوليدي يصبح جزءًا من مجموعة البيانات التي يستخدمها النموذج. لذلك، يجب على معظم الشركات أن تكون قلقة بشأن ما يقوم به موظفوها عند استخدام هذه النماذج. بمعنى آخر، يجب على الشركات مراقبة الأسئلة التي يطرحها الموظفون على الذكاء الاصطناعي.
يجب على الشركات أن تركز على تثقيف موظفيها بشأن استخدام أنظمة الذكاء الاصطناعي بدلاً من الاعتماد فقط على وضع القواعد والتعليمات. من الضروري أن يتفهم الموظفون العواقب المحتملة لأي استفسار أو مدخل يقومون بإدخاله في النظام.
شون براون: أود التحدث أكثر عن كيفية تصميم نموذج لإدارة المخاطر بحيث يشمل جميع المخاطر الجديدة المرتبطة بالذكاء الاصطناعي التوليدي. كيف تقومون بإرشاد عملائكم للتعامل مع هذه المخاطر؟ ما هي الاستراتيجيات والنصائح التي تقدمونها لهم لضمان أن نموذج إدارة المخاطر يغطي كل هذه التحديات الحديثة؟
أوليفر بيفان: لدينا أربع فئات أساسية لإدارة المخاطر المتعلقة بالذكاء الاصطناعي التوليدي. الفئة الأولى هي المبادئ والأطر الحاكمة. الفئة الثانية هي الأطر، حيث نطور هيكليات وخطط منهجية لتطبيق هذه المبادئ والإرشادات. الفئة الثالثة هي التنفيذ والحكم، وأخيرًا، الفئة الرابعة هي التخفيف من المخاطر والمراقبة.
فيما يتعلق بالمبادئ والأطر الحاكمة، من الضروري أن يجري الفريق التنفيذي حوارًا صريحًا حول كيفية وأماكن استخدام الذكاء الاصطناعي التوليدي. يجب على أعضاء الفريق التنفيذي أن يتناقشوا بصدق حول الأهداف والاستخدامات المختلفة لهذه التكنولوجيا. أثناء ذلك، ينبغي عليهم التفكير في تقسيم حالات الاستخدام إلى فئات محددة لتحديد أين يمكن تطبيق الذكاء الاصطناعي التوليدي بشكل فعال وآمن.
تتضمن بعض الأمثلة التي يجب مراعاتها عند استخدام الذكاء الاصطناعي التوليدي ما يلي على سبيل المثال: التفكير في مدى استخدام الذكاء الاصطناعي لتخصيص حملات التسويق بحيث تكون موجهة خصيصًا لاهتمامات واحتياجات العملاء والتفكير في كيفية استخدام الذكاء الاصطناعي في تقييم أداء الموظفين، وكيف يمكن أن يؤثر على دقة وعدالة هذه التقييمات.
عندما ناقشنا مسألة أطر العمل، أشارت "إيدا" بالفعل إلى تصنيف المخاطر، لذا لن أعيد التفصيل في ذلك. ولكن من المهم أن نلاحظ أن المخاطر المرتبطة بالذكاء الاصطناعي التوليدي متنوعة ويمكن التفكير فيها بطرق مختلفة. وجود إطار عمل يتناسب مع طبيعة وأهداف مؤسستك هو أمر ذو قيمة كبيرة، لأنه سيساعدك على توضيح كيفية التعامل مع هذه التكنولوجيا لموظفيك. يمكن أن يساعد إطار العمل هذا في توجيه الموظفين لفهم المخاطر المختلفة وكيفية التفكير فيها، مما يعزز من فعالية استخدام الذكاء الاصطناعي التوليدي بشكل آمن ومسؤول.
عند تحديد المخاطر، من المهم أن تكون على دراية بأنواع المخاطر التي قد تواجهها. يبدأ العديد من عملائنا بتطبيقات ذات مخاطر منخفضة وسهلة التنفيذ. وهذا يتيح لهم الفرصة للتجربة والتعلم دون مواجهة مخاطر كبيرة. فمن خلال البدء بحالات استخدام منخفضة المخاطر، يمكنهم تجربة وتطوير معايير الحوكمة الخاصة بهم تدريجيًا. بالإضافة إلى ذلك، يساعدهم هذا النهج في إجراء تقييمات للمخاطر، مما يمكنهم من فهم أنواع المخاطر النموذجية التي قد يتعرضون لها. هذا الفهم يساعدهم على تحسين استراتيجياتهم وتقليل المخاطر بشكل فعال.
شون براون: أود أن أفهم بشكل أفضل كيف يمكن للشركات التعامل مع المخاطر الخارجية. على سبيل المثال، فيما يتعلق بالتهديدات الأمنية، ما هي التدابير التي ينبغي على الشركات اتخاذها لحماية نفسها؟ ما هي الإجراءات الأمنية الفعالة التي يجب أن تكون موجودة لضمان حماية البيانات والأنظمة من التهديدات الخارجية؟
إيدا كريستنسن: تتطلب إدارة المخاطر مزيجًا من التقنيات المجربة والمثبتة، مع تحسين بعض هذه التقنيات وإضافة أدوات جديدة لتعزيز الفعالية. يجب أن نبني على ما لدينا بالفعل من أساليب ناجحة في إدارة المخاطر، ولكن أيضًا نحتاج إلى تطويرها وجعلها أكثر فعالية من خلال إضافة أدوات وأساليب جديدة. هذا النهج المزدوج يضمن أن نكون مجهزين بشكل أفضل لمواجهة المخاطر المتنوعة والناشئة.
يجب أن يكون لدى الموظفين معرفة أساسية بمخاطر الذكاء الاصطناعي التوليدي ليكونوا يقظين وقادرين على اكتشاف المشاكل عندما تحدث. كما يجب إشراك جميع الموظفين في هذه العملية.
في مجال الأمن السيبراني، يجب استخدام الذكاء الاصطناعي التوليدي لمكافحة التهديدات التي تعتمد على نفس التكنولوجي. فعلى سبيل المثال، تعمل العديد من المؤسسات على استخدام أدوات الذكاء الاصطناعي التوليدي لتعزيز دفاعاتها السيبرانية. يسألون: كيف يمكننا استخدام هذه الأدوات لتحسين اختبارات الأمان، وتعزيز الطبقات الأمنية المختلفة، وضمان سرعة اكتشاف التهديدات؟ يجب أن يكون وقت اكتشاف التهديدات أسرع، ووقت الاستجابة من الاكتشاف إلى الإيقاف أسرع أيضًا. هذا الأمر سيكون بالغ الأهمية للحفاظ على أمان الأنظمة.
شون براون: "إيدا"، ذكرتِ أنه يمكن استخدام الذكاء الاصطناعي لمكافحة الذكاء الاصطناعي. كيف يمكن استخدام الذكاء الاصطناعي التوليدي للكشف عن التزييف العميق، على سبيل المثال؟ أستطيع أن أتخيل رسالة بريد إلكتروني تبدو وكأنها قادمة من المدير التنفيذي، تطلب منك اتخاذ إجراءات معينة. هذا يشبه إلى حد كبير مشهدًا قد نراه في فيلم.
إيدا كريستنسن: ستتعلق بعض التغييرات بالعمليات والإجراءات. كما ذكرت، في الماضي كان الموظفون معتادين على تنفيذ أي طلب يأتي عبر البريد الإلكتروني مباشرة. لكن الآن، لم يعد ذلك مقبولاً. إذا تلقيت رسالة صوتية تطلب منك القيام بشيء ما، فإن سياسة الشركة الجديدة تنص على أنه يجب عليك دائمًا الاتصال بالشخص الذي ترك الرسالة للحصول على تأكيد قبل اتخاذ أي إجراء. هذا يعني أنه لم يعد بالإمكان التصرف بناءً على الرسائل الصوتية أو البريد الإلكتروني دون التحقق من صحتها، وذلك لضمان الحماية من الاحتيال والتزييف العميق.
يمكنك وضع ضوابط ورقابة لحماية الشركة من التهديدات مثل الاحتيال والتزييف العميق، ولكن هذه الضوابط وحدها لن تكون كافية. فيجب أن يكون هناك وعي وتوعية مستمرة بين الموظفين. ويجب أن يكون الموظفون قادرين على ملاحظة الأمور الغريبة أو غير المعتادة، مثل قولهم: "هذا غريب، هذا الشخص لا يترك لي رسائل صوتية أبدًا." الوعي والتوعية بين الموظفين ضروريان لأنهما يكملان الضوابط والإجراءات ويضمنان الحماية بشكل أفضل.
إدارة المخاطر هي مسؤولية الجميع داخل الشركة. يجب أن تكون جزءًا لا يتجزأ من الثقافة التنظيمية والطريقة التي نعمل بها معًا.
شون براون: ما هي الممارسات والأساليب التي تتبعها الشركات عادةً عندما تقرر زيادة اعتمادها على تقنيات الذكاء الاصطناعي في عملياتها اليومية؟
أوليفر بيفان: مكن أن يكون الاعتماد المفرط على مجموعة صغيرة من الخبراء مشكلة كبيرة. في البداية، عندما تبدأ في بناء حالات استخدام الذكاء الاصطناعي التوليدي، قد تكون القدرات الداخلية محدودة. في هذه المرحلة، ستعتمد على مجموعة صغيرة من الأشخاص المتحمسين والمتخصصين في هذا المجال. لكن مع توسع استخدام الذكاء الاصطناعي داخل الشركة، ستجد هذه المجموعة الصغيرة نفسها مثقلة بالأعباء بسرعة. هذا سيؤدي إلى الكثير من الاحتكاك والإحباط، وسيبطئ من تقدم العملية بأكملها. فمن المهم توزيع المعرفة والخبرة بشكل أوسع داخل الشركة لضمان استمرارية ونجاح توسع استخدام الذكاء الاصطناعي.
لا ننصح بالاعتماد الكامل على البائعين ومقدمي الخدمات الخارجية، حتى في المراحل المبكرة من استخدام الذكاء الاصطناعي التوليدي. هناك اختلاف كبير في مستوى الخدمات التي يقدمها مزودو النماذج اللغوية الكبيرة والأنظمة الطرفية الأخرى. لذلك، يجب على الشركات أن تتحمل المسؤولية بنفسها وتقوم بعملية التدقيق والفحص الدقيق لهذه التقنيات. ينبغي للشركات أيضًا أن تفكر في كيفية تعزيز الأمان داخليًا بدلاً من الاعتماد فقط على الحلول الجاهزة التي يقدمها البائعون. وبالمثل، فإن الاعتماد فقط على الاستراتيجيات التقنية للتخفيف من المخاطر لن يكون كافيًا. يجب تطوير استراتيجيات شاملة تشمل الجوانب التقنية وغير التقنية لضمان الحماية الفعالة.
ما زلنا نتعلم الكثير عن كيفية أداء الضوابط واستراتيجيات التخفيف المختلفة. لذا، من الضروري دمج العوامل البشرية في هذه العمليات، مثل وجود شخص يتابع ويشرف على العملية. يجب دمج فرق المخاطر والتطوير في أقرب وقت ممكن لضمان فعالية العمليات. نظرًا لتطور الذكاء الاصطناعي التوليدي وديناميكيته، يجب أن تكون الشركات على دراية بأن هذه التقنيات ستتغير وتتطور بمرور الوقت. لذلك، من الضروري أن يكون لديك طرق لمتابعة هذا التطور والتكيف معه لضمان التوسع الناجح والمستدام.
شون براون: هل لديك أي أفكار أو نقاط أخيرة تودين مشاركتها قبل أن ننهي الحوار؟
إيدا كريستنسن: نعم، إذا بدا حديثنا عن المخاطر وكأنه نظرة تشاؤمية، فنحن نعتذر، لم نقصد ذلك، إلا أن الفكرة التي أود توضيحها هي أنه من أجل تحسين الأداء والتقدم بأمان، يجب أن تكون لدينا ضوابط قوية، مثل تحسين المكابح في السيارة للسماح بالسير بسرعة أكبر بأمان. هذا هو الهدف من التركيز على إدارة المخاطر. وأود أن أضيف أنني خبيرة متمرسة في هذا المجال، وأفهم تمامًا أهمية التحضير الجيد لإدارة المخاطر لضمان نجاح العمل.
أنا متحمسة للغاية لفكرة إدراج إدارة المخاطر في المراحل المبكرة من تطوير الذكاء الاصطناعي التوليدي والمعروفة بفكرة "التحول إلى اليسار". لقد تحدثنا عن هذا المفهوم لسنوات عديدة، لكنه كان صعب التنفيذ. الآن، مع وجود فوائد كبيرة على المحك، سنبدأ في رؤية تعاون أكثر سلاسة ومرونة بين فرق إدارة المخاطر وفرق تطوير الذكاء الاصطناعي. بهذه الطريقة، يمكننا استغلال الإمكانيات الكاملة لهذه التكنولوجيا وفي نفس الوقت نضمن التعامل مع المخاطر بشكل صحيح منذ البداية. هذا التحول سيجعل عملية تطوير التكنولوجيا أكثر كفاءة وسيسعد الخبراء المتمرسين مثلي، الذين يدركون أهمية تضمين إدارة المخاطر من البداية.