كيف يمكن لمنظمتك أن تثق في الفرص التي توفرها الذكاء الاصطناعي

باختصار

إن نماذج اللغة الكبيرة هي نماذج احتمالية وليست حتمية، وهذا يعني أنها تحمل حالة من عدم اليقين (على سبيل المثال، الهلوسة) مع مجموعة من المخرجات المحتملة. وكثيراً ما تكون درجة عدم اليقين العالية غير محتملة، على سبيل المثال، في قطاعي الرعاية الصحية والخدمات المالية، اللذين يمثلان مجتمعين حوالي 40% من الناتج المحلي الإجمالي. وهناك حاجة واضحة إلى حوكمة قوية وإدارة صارمة للمخاطر لإطلاق العنان لأكثر حالات الاستخدام قيمة للذكاء الاصطناعي التوليدي.

في أربعينيات القرن العشرين، بدأ عدد قليل من العلماء من مجموعة من المجالات بما في ذلك علم النفس والرياضيات والهندسة والاقتصاد والعلوم السياسية في استكشاف كيفية إنشاء دماغ اصطناعي. وفي الوقت نفسه، بدأ الفلاسفة وعلماء الأنثروبولوجيا والعلماء مثل إسحاق أسيموف في دراسة الآثار الأخلاقية المترتبة على القيام بذلك. واليوم، يتزايد الاهتمام العام بالذكاء الاصطناعي الأخلاقي، مدفوعًا بالقدرات المذهلة التي أظهرتها نماذج اللغة الكبيرة وتقنيات الذكاء الاصطناعي التوليدي.

وفقًا لاتجاهات البحث على الإنترنت، فإن الاهتمام العالمي بالبحث في المصطلحات ذات الصلة الوثيقة بالذكاء الاصطناعي الأخلاقي والذكاء الاصطناعي المسؤول وسلامة الذكاء الاصطناعي كلها في أعلى مستوياتها القياسية وما زالت في ارتفاع. ومع ذلك، فإن مصطلح بحث ذي صلة واحد يتخلف عن المصطلحات الأخرى من حيث المصلحة العامة: الذكاء الاصطناعي الموثوق به. لماذا فقدت الثقة في الذكاء الاصطناعي كإطار أخلاقي شعبيتها في أذهان السوق؟

كيف يمكن لـ Musanid المساعدة

خدمات استشارات الذكاء الاصطناعي

إن نهجنا الاستشاري في اعتماد الذكاء الاصطناعي والأتمتة الذكية يتمحور حول الإنسان، وعملي، ويركز على النتائج، وأخلاقي.

بناء الثقة: التطور القادم للذكاء الاصطناعي الأخلاقي

تتمتع مؤسسة Musanid بتاريخ طويل في العمل مع الذكاء الاصطناعي وأعلنت مؤخرًا عن منصة موحدة تجمع بين القدرات البشرية والذكاء الاصطناعي لمساعدة العملاء على تحويل أعمالهم من خلال التبني الواثق والمسؤول للذكاء الاصطناعي. تستفيد Musanid.ai من منصات التكنولوجيا المتطورة وقدرات الذكاء الاصطناعي، مع خبرة عميقة في الاستراتيجية والمعاملات والتحول والمخاطر والضمان والضرائب، وكل ذلك مدعوم بنظام بيئي قوي للذكاء الاصطناعي.

ومع نضوج التكنولوجيا وتطور متطلبات السوق، تتطور أيضًا لغتنا ومنهجياتنا ونهجنا في إدارة المخاطر العديدة الناجمة عن نشر الذكاء الاصطناعي.

ونتيجة لهذا الانخراط المستمر مع عملاء مسانيد وتقنيات الذكاء الاصطناعي، فإننا نحول تركيزنا بعيدًا عن بناء الثقة نحو بناء الثقة. وهذا التركيز الجديد يتماشى بشكل أفضل مع المخاطر الحالية والناشئة التي تثيرها تقنيات الذكاء الاصطناعي الرائدة، كما يتماشى بشكل أفضل مع المخاوف الواسعة النطاق المتعلقة بأخلاقيات الذكاء الاصطناعي. والدافع وراء هذا التغيير أساسي للغاية؛ فالماجستير في القانون احتمالي وليس حتميًا، وبالتالي فإنه يجلب مخاطر جديدة يجب إدارتها.

في بيئة احتمالية، يمكن لنفس الموجه أو المدخل أن يولد مخرجات مختلفة، وحتى الاضطرابات البسيطة في الموجه، مثل إضافة فاصلة أو علامة اقتباس أو تغيير في الإملاء قد يتجاهله القارئ البشري، يمكن أن تدفع مخرجات النموذج إلى مساحة مختلفة تمامًا، مما ينتج عنه نتائج نموذجية غير مرغوب فيها أو غير متوقعة (المعروفة أيضًا باسم "الهلوسة"). هذه النماذج الجديدة معرضة أيضًا لاستراتيجيات هجومية جديدة، مثل هجمات حقن الموجه حيث تدفع الموجهات المصممة خصيصًا النموذج خارج حدود الأمان المعمول بها. هذه مخاطر إضافية تتجاوز تلك التي قدمتها تقنيات الذكاء الاصطناعي السابقة.

لا يمكن التسامح مع مثل هذه التغيرات في السياقات شديدة الحساسية، مثل المستشفيات أو العيادات التي تستخدم في العلاجات والتشخيصات أو العمليات الصيدلانية مثل تحديد الجرعات. ومع وجود درجة عالية من عدم اليقين في النموذج، يتعين مراقبة نماذج التعلم العميق والتحكم فيها عن كثب في القطاعات أو التطبيقات عالية المخاطر أو في أتمتة الوظائف المهمة للأعمال.

على سبيل المثال، تخيلوا أن مساعد الطيار الآلي يعمل بالذكاء الاصطناعي، وقد تم نشره في غرف الطوارئ لمساعدة الأطباء والممرضات في فرز المرضى، ومن الواضح أن مثل هذه المنتجات قيد التطوير بالفعل. إن درجة عالية من عدم اليقين في النموذج من الممكن أن تسبب ضررا لا رجعة فيه في مثل هذا التطبيق.

وبدوره، يعني هذا أن التكنولوجيا المذهلة، التي قورنت بالنار والكهرباء والآيفون من حيث التأثيرات الاجتماعية والاقتصادية من قبل كبار قادة التكنولوجيا، لا يمكن الاستفادة منها بالكامل في قطاعات رئيسية مثل الخدمات المالية أو الرعاية الصحية، والتي تمثل مجتمعة حوالي 40٪ من الناتج المحلي الإجمالي. وعلى هذا النحو، تظل العديد من حالات الاستخدام الأكثر قيمة في الاقتصاد بعيدة المنال حتى تتمكن الحوكمة القوية من ضمان السلامة والمتانة والأخلاق.

ما هو المطلوب للمساعدة في ضمان السلامة والمتانة؟

إننا نحتاج إلى تقنيات تساعدنا على فهم مدى موثوقية ودقة تنبؤات النموذج وقياس أو توقع درجة عدم اليقين في مخرجاته. كما ظهرت تقنيات أخرى لتقييد مخرجات النموذج بشكل كافٍ بحيث يمكن للخبراء الطبيين، على سبيل المثال، أن يكونوا على ثقة من دقة النموذج، وأن التوجيه الخوارزمي لن يسبب أي ضرر للمريض.

ورغم أن هذه المشكلة ليست محلولة من الناحية الفنية، فإن أحد الأمثلة على ذلك هو "الضبط الدقيق"، حيث يتم توفير نص إضافي لتعزيز خبرة النموذج في مجال متخصص معين. وهناك مثال آخر هو "التعلم التعزيزي"، حيث يقدم البشر في الحلقة للنموذج إرشادات إضافية بشأن الحالات الهامشية غير المؤكدة. وبعد ذلك، يمكننا زيادة "نافذة السياق" لتوفير مصدر "الحقيقة الأساسية" للنموذج للتحقق من المرجع، وأخيراً، هناك أساليب "عدائية" حيث يقوم نموذج متنافس بمراجعة وفحص نتائج النموذج الأول إلى حدود محددة، مثل اللغة المستخدمة في ميثاق الأمم المتحدة بشأن حقوق الإنسان.

ولكن لا يمكن لأي من هذه الخيارات التقنية بمفردها أو مجتمعة أن تكون كافية لتبنيها على نطاق واسع من قِبَل الشركات. فالشركات تحتاج إلى نهج على مستوى الحل يشمل دورة حياة النموذج بالكامل، من جمع البيانات والهندسة إلى تدريب النموذج والتحقق منه، إلى النشر ومراقبة المخاطر في الوقت الفعلي. وفقط مثل هذه الرؤية الشاملة يمكن أن تمنح قادة الأعمال الثقة في إمكانية إدارة المخاطر، وأن تبني GenAI سيضيف قيمة.

التحدي الكبير

في الإحصاء، يعتبر مفهوم "فاصل الثقة" طريقة بسيطة لوصف درجة عدم اليقين لمعلمة معينة، مما يوفر مجموعة من التقديرات المحتملة لشيء غير معروف. وهذا هو الإطار الأكثر ملاءمة للنماذج التي تنتج مخرجات احتمالية. وبالتالي فإن المناقشة العامة المتزايدة حول الذكاء الاصطناعي الأخلاقي تدور حول السلامة والمسؤولية. نعتقد أنه من الممكن ضمان سلامة الذكاء الاصطناعي، ونعتقد أن مسؤولية الشركات التي تنشر الذكاء الاصطناعي تقع على عاتقها.

إن فرقنا هنا لمساعدتك على الاستثمار في الذكاء الاصطناعي بثقة، وفتح أكثر حالات الاستخدام المولدة للقيمة لدفع النمو الهائل. يساعد نهجنا المتمحور حول الأشخاص في مجال الذكاء الاصطناعي على تمكين التكنولوجيا من تعزيز موهبتك، ودفع مكاسب الكفاءة والإنتاجية عبر وظائف الأعمال. ويساعد المهنيون متعددو التخصصات الرائدون عالميًا في مجال المخاطر والاستراتيجية والتكنولوجيا والتحول في ضمان توافق التبني مع غرض مؤسستك وثقافتها وقيمها وأصحاب المصلحة الرئيسيين حتى يتمكن الذكاء الاصطناعي من تحقيق تأثير بشري إيجابي.

إن الآراء الواردة في هذه المقالة هي آراء كاتبها ولا تعكس بالضرورة آراء منظمة مساند العالمية أو الشركات الأعضاء فيها.

ملخص

هناك حاجة إلى نهج شامل ومتكامل لإدارة مخاطر الذكاء الاصطناعي على مدار دورة حياة النموذج لغرس الثقة المطلوبة لتبني المؤسسات لـ GenAI.