هل يجب أن نقلق من كون قرارات أنظمة الذكاء الاصطناعي غامضة؟

عندما تتقدم للحصول على وظيفة من خلال الإنترنت، فسيُطلب منك في مرحلة ما تقديم سيرتك الذاتية الحالية. وربما ستتلقَّى بعد ثلاثة أسابيع رسالة تخبرك بأنَّه نظراً إلى العدد الكبير من المرشحين الاستثنائيين المتقدمين لشغل هذه الوظيفة، فإنَّنا نأسف لإبلاغك أنَّه لم يتم قبولك في قائمة المرشحين لهذه الوظيفة.



تأثير الذكاء الاصطناعي على حياتنا:

بالطبع لن تكون هذه الرسالة بمنزلة صدمة بالنسبة إليك؛ وعلى الرغم من أنَّك ستشعر بألم خيبة الأمل، وربما بالحاجة إلى أن تبحث عن فرصة أخرى، لكنَّك تكون مرحلة ما تعلم بأنَّ ذلك قد يحدث، لذا تُكرِّر المحاولة في غضون يوم أو يومين.

توجد العديد من الأسباب التي يجب أن تجعلك تتفادى النظر إلى الرفض الذي تتلقاه على أنَّه قضية شخصية، ولكن يوجد سبب خاص جداً قد لا تكون فكَّرت فيه؛ فربما قد يكون استبعادك بسبب خوارزمية عملت على اختيار المرشحين على أساس العرق أو الجنس أو اللون؛ بعبارة أخرى، استُبعِدت بناءً على عوامل لا علاقة لها بقدرتك على القيام بمهام الوظيفة.

حتى وإن لم يكن تأثير التكنولوجيا في حياتك يثير انزعاجك عموماً، إلا أنَّ ما ذكرناه عن عمل الروبوتات وتضخُّم أثر التعلُّم الآلي، يمكن أن يثير سخط حتى أكثر المراقبين تفاؤلاً في مجال التكنولوجيا.

شاهد بالفيديو: 17 مهارة ضرورية للحصول على وظيفة ناجحة

التعلّم الآلي للذكاء الاصطناعي:

يُعَدُّ التعلُّم الآلي واحداً فقط من تطبيقات الذكاء الاصطناعي، لكنَّه ربما يكون أكثر المجالات التي ينشط فيها البحث من بين مجالات الذكاء الاصطناعي الأخرى. أحد التطبيقات الأوسع انتشاراً في مجال التعلُّم الآلي، هو التعلُّم الآلي الخاضع للإشراف؛ وهو أحد تطبيقات الذكاء الاصطناعي التي تُستَعمَل في مجال توظيف الموارد البشرية - كما رأينا آنفاً - وكذلك في مجالات البحث الجنائي وتحقيقات الشرطة، وتسجيلات الائتمان، وتقييم الرفاهية، ومراقبة حدود الدولة، ومجالات الطب، وكشف الاحتيال والتهرب الضريبي، والتنبؤ بالطقس. وبشكل أساسي، أي مجال تكون فيه القدرة على التنبؤ بالنتائج مفيدة.

وعلى الرغم من كل الضجة التي أُثيرت بالحديث عن التعلُّم الآلي، لكن في الواقع هذه الأنظمة ما تزال في مراحلها الأولى. وسواءً كان الأمر يتعلق بقدرة هذه الأنظمة على التمييز بين الحيوانات الأليفة الصغيرة أم تفعيل أنظمة تعرُّف الصور من خلال إضافة عنصر غير متوقع في المشهد، فإنَّنا ما نزال بعيدين جداً عن الآلات الذكية بالمعنى الدقيق للكلمة. ولكن في الوقت نفسه، لا يمكننا أن نتجنب العديد من الخيارات الهامة التي تجبرنا هذه التكنولوجيا على التعامل معها في وقتنا الحالي.

يمكن لأيِّ شخص خبير في هذا المجال أن يخبرك عن صعوبة تفسير آلية عمل أنظمة التعلُّم الآلي، لاسيما النوع المعروف بالشبكات العصبية المعقدة، وهي فئة خاصة من أنظمة التعلُّم الآلي والتي تتميز بأداء استثنائي؛ إذ إنَّه في المفاهيم التي تُطرَح من قبل خبراء أنظمة التعلُّم الآلي، تُعرَّف الشبكات العصبية العميقة على أنَّها صناديق سوداء، أو أجهزة تكون آلية عملها الداخلية معقدة وغامضة بشكل محير، حتى بالنسبة إلى الشبكات البدائية منها.

لكن هل يمكن عدُّ التعقيد في عمل هذه الأنظمة أمراً هاماً؟ وهل يجب أن نفكر ولو للحظة في مدى تعقيد الأنظمة التي تعمل على أتمتة القرارات التي يتخذها البشر؟ خاصةً وأنَّ هذه الأنظمة على صعيد اتخاذ القرار هي أفضل من البشر بشكل واضح وأكثر دقة وكفاءة وأقل تحيزاً.

إقرأ أيضاً: هولندا تطلق أول مباراة كرة قدم للروبوتات

الذكاء الاصطناعي في عصر التكنولوجيا:

في عصر التكنولوجيا الهائلة، يمكن توقع النوع التالي من الجدل: هناك الكثير من الأنظمة المفيدة التي لا نفهمها تماماً، ولكن لماذا يجب أن نهتم بفهمها ما دامت مفيدة؟! إنَّ الإصرار على فهم شيء كشرط مسبق للاستفادة منه هو ضرب من العبث.

وكما أنَّ هذا الأمر صحيح بنسبة كبيرة في مجال الطب؛ فالآليات الكامنة وراء العديد من الأدوية المنقذة للحياة غير مفهومة بالكامل، وهذا صحيح أيضاً في تاريخ التكنولوجيا. فمثلاً، لم يكن "هانز ليبرشي" (Hanz Lippershey) بحاجة إلى معرفة خصائص الطيف المرئي قبل أن يتمكن من اختراع واستعمال تلسكوب في القرن السابع عشر.  وفي وقت لاحق من القرن التاسع عشر، صمَّم "تشارلز باباج" (Charles Babbage) المحرك التحليلي الشهير، الذي لم يكن يتوقع أنَّه سيساعد في تصميم بنية الحاسوب الرقمي الحديث، من خلال دمج الذاكرة المخزنة والحلقات والتفرع الشرطي. ومع ذلك، لم يكن "باباج" يعلم شيئاً عن التطورات اللاحقة في المنطق الرياضي التي جعلت الحواسيب الرقمية أمراً ممكناً في القرن العشرين.

تخيَّل وجود أداة لتقييم مخاطر الانتكاس في السلوك الإجرامي أو العودة إلى تعاطي المخدرات، مع أداء دقيق جداً وعدم احتمالية للخطأ.

الذكاء الاصطناعي في عصر التكنولوجيا

نظريّة المعرفة:

يجد هذا المنهج دعماً في بعض مجالات نظرية المعرفة، وهي فرع من الفلسفة يختص بطبيعة المعرفة. ونقطة البداية في هذه النظرية هي وجهة النظر القائلة إنَّ المعرفة هي اعتقاد حقيقي مبرَّر؛ أي إنَّه لا يكفي أن تدَّعي معرفة شيء لكونك تؤمن به ولكونه صحيحاً فحسب؛ بل يجب أن يكون لديك ما يبرره بطريقة ما؛ إذاً، متى تكون لدينا مبررات لتصديق شيء ما؟

قد يجيب عن هذا السؤال أحد مؤيدي الموثوقية، وهي فرع من نظرية المعرفة: عندما يكون إيمانك مدعوماً ببعض العمليات الموثوقة التي تؤدي إلى تشكيل الاعتقاد، حتى لو لم يكن لديك ما يبرر موثوقية العملية التي توصلت من خلالها إلى المعرفة؛ فيمكن أن يجادل أحد أنصار الموثوقية مثلاً بأنَّه لدينا ما يبرر تصديقنا ما نراه في العالم الخارجي بواسطة أعيننا، حتى وإن لم نكن على دراية كافية ومفصلة بالبصريات؛ لأنَّ النظام البصري البشري من الواضح أنَّه قابل للتكيف وقد خدمنا جيداً.

وبالمثل، ربما نكون محقين في قبول نتائج أنظمة التعلُّم الآلي التي أثبتت أنَّها موثوقة، حتى عندما لا نفهم آلية عمل هذه الأنظمة.

هل يمكننا الوثوق بالذكاء الاصطناعي؟

يمكن القول إنَّ مبدأ الموثوقية يُطبَّق من قبل هيئات المحلفين في العديد من الإجراءات القانونية؛ إذ إنَّ مداولاتهم عبارة عن صناديق سوداء، ولا يشرح المحلفون الاثني عشر قراراتهم لأيِّ شخص، ولكن يُعتقد أنَّ أحكامهم قد تشكلت من خلال عملية موثوقة؛ لذلك لا داعي للتفسيرات.

ومع ذلك، هناك خطر من المبالغة في تطبيق مبدأ الموثوقية، ويمكنك المقارنة بين آلة حاسبة صغيرة وأداة مصممة لتقييم خطر عودة الشخص المدان بارتكاب جريمة إلى السلوك الإجرامي (في الواقع، تُستعمَل أدوات تقييم مخاطر الانتكاس في جميع أنحاء "الولايات المتحدة" (USA) لمساعدة المسؤولين في تحديد الكفالة وإصدار الأحكام والإفراج المشروط).

فبينما يمكن الاعتماد على نتائج الآلة الحاسبة لدرجة أنَّ تفسير آلية عملها تبدو غير ضرورية، حتى بالنسبة إلى عملية شراء منزل من قبل شخص أول مرة؛ إذ يتم تحديد مدفوعات الرهن العقاري من خلال هذه العملية، إلا أنَّ الشخص الذي يشتري المنزل قد يواجه جوانب أخرى من العملية تكون غير دقيقة، مثل عدالة شروط القرض وتدخُّل وكالة التصنيف الائتماني؛ لكنَّك لن تشكك أبداً في هندسة الآلة الحاسبة نفسها. وهذا يختلف تماماً عن أداة تقييم مخاطر الانتكاس في السلوك الإجرامي، فعندما تحدد الآلة وجود خطر كبير لعودة المجرم للسلوك الإجرامي، فإنَّ السجين أو مجلس الإفراج لا يمكن أن يكتفي بالتقييم حتى يقتنع؛ بل يجب أن يكون لديهم بعض الفهم للعوامل التي أدت إلى هذه التقييم، مثلما يجب أن يأخذوا في الحسبان أهمية كل عامل من العوامل.

النتائج غير الدقيقة للذكاء الاصطناعي:

السبب في هذا أنَّ التقييم المجرد يجعل أيَّ نتيجة غير دقيقة بالضرورة؛ إذ يتم في هذه العملية حساب الاحتمالات بناءً على معلومات محدودة، ومن المحتمل أن تكون معلومات غير ذات قيمة، ولكن يتم إعطاء قيمة كبيرة لهذه المعلومات.

لكن ماذا لو كانت أنظمة تقييم مخاطر الانتكاس تشبه في الواقع الآلة الحاسبة؟ ولنفترض جدلاً أنَّ آلية عمل هذه الأنظمة في التنبؤ بالمخاطر تشبه الآلات الحاسبة، عندها لن تكون قادرة على القيام بالعمل الذي كنَّا نتوقعه. وهذا يتطلب منَّا التفكير بشكل جدِّي فيما يعنيه أن تكون أنظمة اتخاذ القرار بشكل آلي موثوقاً بها؛ لأنَّنا نعتقد بشكل طبيعي أنَّ هذه الأنظمة غالباً ما تقدم الاقتراحات الصحيحة، لكن ماذا لو لم يكن هناك شيء اسمه اقتراح صحيح؟

ماذا لو كان كل ما تفعله هذه الأنظمة هو تقديم طريقة صحيحة للتوصل إلى قرار؛ أي طريقة صحيحة للتعامل مع مجموعة من الظروف؟

هذا الوضع مألوف جداً في مجالات القانون والسياسة والأخلاق؛ فغالباً ما ينتج عن التضاد في القيم والاختلافات في الأطر الأخلاقية، استنتاجات متباينة جداً حول مسار العمل الصحيح. بمعنى، أنَّه نادراً ما توجد نتائج صحيحة لا لبس فيها، لكن توجد طرائق صحيحة فحسب أدت إلى هذه النتائج وعُدَّت كفيلة بتبريرها. أي إنَّ الحديث عن جدوى الموثوقية يصبح محط شك. وبالنسبة إلى العديد من تطبيقات نظام التعلُّم الآلي ذات الأثر الأخلاقي والمثيرة للجدل، فإنَّ معرفة أنَّ النظام يعمل بشكل صحيح يعني معرفة الأسباب التي أدت إلى اتخاذ القرار وقبول هذه الأسباب.

الطريقة التي توّصل بها الذكاء الاصطناعي إلى التعلّم:

ومع ذلك، قد تتساءل عن القرارات التي تحتوي إجابات صحيحة بشكل لا لبس فيه؛ أي إنَّك قد تقول لنفسك: إذا ما كنَّا قادرين على ابتكار آلة تعمل بنظام التعلُّم الآلي، وقادرة على الحصول على الإجابة الصحيحة بنسبة 100% من الحالات، فلماذا نحتاج إلى تفسيرات حول الآلية التي توصلت من خلالها الآلة إلى الإجابة أو القرار، ما دامت هذه الآلة موثوقة مثل الآلة الحاسبة التي تقوم بتقديم الإجابات الصحيحة في جميع الحالات؟

قد يكون من المغري ألَّا نهتم بتفسير الطريقة التي توصلت بها الآلة إلى القرار، لكن بقليل من التأمل ستجد أنَّ قرارات أو إجابات أنظمة التعلُّم الآلي غير موثوق بها.

إنَّ عدم اهتمامنا بالطريقة التي توصلت من خلالها الآلة الحاسبة إلى الإجابة، ليس بسبب أنَّ إجابة الآلة الحاسبة صحيحة فحسب، ولكن لأنَّه بغضِّ النظر عن الإجراء الذي اتبعته الآلة الحاسبة للتوصل إلى الإجابة، فلا يوجد خطر من أنَّ هناك شخصاً سيتعرض للظلم لأنَّ "الآلة الحاسبة" لم تراعِ الظروف التي يخضع لها هذا الشخص. فليس هناك احتمال أن تؤدي آلية عمل الآلة الحاسبة إلى انتهاك القانون بسبب قيامها بالتمييز العنصري، وليس هناك أيُّ احتمال بأن تسيء الآلة الحاسبة فهم اختصاصها وتأخذ في الحسبان الأمور غير ذات الصلة بمجال عملها.

في حين أنَّه حتى عندما تتوصل آلةٌ تعمل بنظام التعلُّم الآلي إلى إجابة صحيحة وتبقى قراراتها متوافقة مع القانون، يبقى هناك خطر لأن تُعرِّض أحدهم للظلم. وعلى النقيض من ذلك، بالنسبة إلى القرارات التي كُلِّفت أنظمة التعلُّم الآلي بمعالجتها، وحتى بالنسبة إلى القرارات ذات المستوى المنخفض أو التي لا تتطلب سوى إجراءات ميكانيكية، ما يزال خطر تعرُّض الشخص للظلم قائماً.

ومثل التحقق من جواز السفر، أو دراسة سيرة ذاتية؛ توجد دائماً احتمالية لأن تُساء معاملة الأشخاص. فمثلاً، بالنسبة إلى أداة التنبؤ بخطر العودة للسلوك الإجرامي، مهما بلغت دقة هذه الأنظمة، التي تتنبأ بشكل صحيح فيما إذا كان الشخص الذي مُنح تسريحاً مشروطاً سيخرق القانون في المستقبل، إلا أنَّه من الممكن لهذه الأنظمة أن تعمل بطريقة تسيء فيها معاملة هذا الشخص.

حتى عندما تعتقد أنَّ الآلات التي تعمل بأنظمة التعلُّم الآلي تتوصل دوماً إلى إجابات صحيحة وتبقى بعيدة عن خرق القانون، فما يزال هناك العديد من الطرائق التي يمكن من خلالها لهذه الآلات أن تسيء معاملة الأشخاص.

الطريقة التي توّصل بها الذكاء الاصطناعي إلى التعلّم:

بعض الأمثلة على عمل الذكاء الاصطناعي:

وعلى سبيل المثال، تخيَّل أنَّك مستشار في مجال الموارد البشرية في إحدى الشركات، ويوجد اثنان من زملائك الذين سيساعدونك في اختيار موظف لمنصب معيَّن في الشركة. ولنفترض أنَّ هناك 30 شخصاً تقدَّم إلى الوظيفة، لكن يوجد مرشح متميز يتفق الجميع على أنَّه يستحق الحصول على الوظيفة. الهدف من عملية التوظيف هذه هو اختيار المرشح الذي يستحق الحصول على الوظيفة؛ وقد تقرر تخفيف عبء العمل على النحو الآتي: تُقسِّم طلبات التوظيف إلى ثلاث مجموعات تحتوي كل مجموعة على 10 طلبات بحيث تعطي كلَّ واحد من زملائك الاثنين 10 طلبات، ويبقى لديك 10 طلبات لتدرسها. وسيقوم كلُّ واحد منكم بوضع قائمة يرتب فيها المرشحين حسب الأفضلية بحيث يختار في النهاية أفضل ثلاثة مرشحين في هذه القائمة.

ثم ستجتمع مع زميليك وستقومون بمقارنة القوائم، ومن ثم ستضعون قائمة مختصرة يوجد فيها خمسة مرشحين فقط، ومن ثمَّ ستُجري المقابلات مع هؤلاء المرشحين الخمسة ويحصل أفضل مرشح على الوظيفة.

وعلى المقلب الآخر، توجد طريقة أخرى لكنَّها تتطلب جهداً أكبر؛ وهي أن يقوم كل واحد منكم بمراجعة السير الذاتية وتسجيل الدرجات لجميع المرشحين الثلاثين، ومن ثمَّ يقوم كل واحد منكم بوضع قائمة تضم أفضل خمسة مرشحين من وجهة نظره، ومن ثم مقارنة القوائم للحصول على قائمة موحدة تضم خمسة مرشحين، إذا اتفقتم على أسماء أفضل خمسة مرشحين. وفي حال لم تتفقوا، فتُوضع قائمة تضم 15 مرشحاً كحد أقصى (بما أنَّ كل واحد منكم اختار خمسة مرشحين).

ونظراً إلى وجود مرشح متميز، سنفترض أنَّ اسمه مدرج في القائمة الطويلة، ولتكن القائمة الطويلة المُتَّفق عليها تحتوي على 13 اسماً كحد أقصى، ومن ثمَّ وكالعادة تلتقي بالمرشحين وتقارن نتائجهم حتى تتوصل إلى قائمة مختصرة تحتوي خمسة مرشحين فقط، ومن ثم تجري مقابلات مع هؤلاء الخمسة ويحصل المرشح الأفضل على الوظيفة؛ أي المرشح نفسه الذي كان سيحصل على الوظيفة باستعمال الطريقة الأولى التي تتضمن تقسيم الطلبات إلى ثلاث مجموعات.

إقرأ أيضاً: ما هي الحوسبة السّحابيّة Cloud Computing؟ خصائصها، تقنياتها، والأمان

الطريقة السريعة:

طريقة مغرية كونها سهلة، لكنَّها تطرح مشكلة وهي أنَّها غير عادلة من الناحية الإجرائية. لنفترض أنَّ مجموعة الطلبات الخاصة بك كانت تحتوي على المرشحين الأكثر كفاءة بمن فيهم المرشح الأفضل، بحيث تحتوي المجموعتان الخاصتان بزميليك المرشحين الأقل كفاءة. ما يعني أنَّ هذه الطريقة ستؤدي إلى استبعاد المرشحين الأكثر كفاءة كونك تقوم بتصفية القائمة للحصول على أفضل المرشحين في قائمتك، بينما سيصل مرشحون أقل كفاءة بكثير بسبب وجودهم في القائمتين الخاصتين بزميليك.

وستحتوي القائمة المختصرة المكونة من خمسة إلى تسعة مرشحين على أسماء ثلاثة مرشحين الذين كانوا موجودين في القائمة الطويلة التي تم اختيارها من بين المرشحين الأكثر كفاءة، ولكنَّ الاثنان المتبقيان في القائمة المختصرة سيكونان أقل كفاءة من أيٍّ من المرشحين الذين تم استبعادهم عند إعداد قائمتك المختصرة، لكونه تم اختيارهم من بين المرشحين الأقل كفاءة.

هذا يعني أنَّ الخوارزمية الأولى تضع المرشح الممتاز في منافسة مع اثنين من أضعف المرشحين في المقابلة، بينما تستبعد اثنين من أقوى المرشحين؛ أي إنَّ الخوارزمية قد أخطأت، وليس هاماً ما إذا كان المرشح الأفضل سيحصل على الوظيفة أم لا، ما يهم أنَّ الخوارزمية قد ظلمت اثنين من أفضل المرشحين.

لذلك، نحن جميعاً نرغب في فهم الآلية التي تتخذ من خلالها أنظمة التعلُّم الآلي قراراتها بغضِّ النظر عن صحة النتيجة ومدى مشروعيتها. ولأنّّ احتمالية اتخاذ قرارات ظالمة بحقنا لا تنفيها مجرد فكرة أنَّ القرار صائب أم لا، ربما نحن بحاجة دائماً إلى التفسيرات ولا غنى لنا عنها.

المصدر.




مقالات مرتبطة