تكنولوجيا

توظيف الروبوتات والتمييز: نحو إطار تشريعي لتوظيف الذكاء الاصطناعي

تقدم العديد من الشركات الآن ذكاءً اصطناعيًا قادرًا على دعم أو حتى استبدال الجهات الفاعلة في الموارد البشرية. على سبيل المثال ، تبيع بعض الشركات خدمات الذكاء الاصطناعي القادرة على قراءة السير الذاتية وتصنيفها ، والبعض الآخر قادر على تصوير المرشح الوظيفي وتحليل شخصيته بناءً على تعابير وجهه. هذه الأدوات الجديدة ، التي تم إنشاؤها لمساعدة البشر أو استبدالهم ، على الرغم من أنها واعدة بعمليات أكثر عدلاً وأسرع وأقل تمييزًا ، إلا أنها تثير مخاوف. في مواجهة ظهورها المتزايد ، يقوم المزيد والمزيد من الدول بتنفيذ لوائح محددة تهدف إلى زيادة تنظيم استخدام الذكاء الاصطناعي في الموارد البشرية.

إطار عمل بدأ في الولايات المتحدة

تبدو ولاية إلينوي الفيدرالية الأمريكية واحدة من الرواد في تنظيم أنظمة الذكاء الاصطناعي المستخدمة في سياق التوظيف. في الواقع ، في 1 يناير 2020 ، دخل قانون حيز التنفيذ يفرض التزامات مختلفة على أصحاب العمل الذين يستخدمون أدوات الذكاء الاصطناعي لإجراء مقابلات بالفيديو. يجب على صاحب العمل إبلاغ المرشح بأنه يتم استخدام إحدى أدوات الذكاء الاصطناعي ، وأن يشرح له كيفية عملها ، والحصول على موافقته على هذا الاستخدام والاحتفاظ بالفيديو المسجل بشروط صارمة.

أصدرت ولاية ماريلاند أيضًا تشريعات استجابةً للمخاوف المتعلقة بالذكاء الاصطناعي في مكان العمل. اعتبارًا من 1 أكتوبر 2020 ، يتطلب قانون ماريلاند من أصحاب العمل الحصول على موافقة المرشح قبل استخدام خدمة التعرف على الوجه أثناء مقابلة لغرض تحليل ردود أفعال المرشح.

أخيرًا ، تبنت مدينة نيويورك قانونًا في 11 ديسمبر 2021 ، يدخل حيز التنفيذ في 1 يناير 2023 ، لتنظيم استخدام الذكاء الاصطناعي لتسهيل توظيف الموظفين. بموجب هذا القانون ، يجب مراجعة نظام التوظيف بالذكاء الاصطناعي قبل استخدامه من أجل الكشف عن التحيزات المحتملة التي قد تؤدي إلى التمييز. بالإضافة إلى ذلك ، يجب إبلاغ المتقدمين والموظفين في مدينة نيويورك باستخدام مثل هذا النظام أثناء عملية التوظيف أو الترقية ، بالإضافة إلى المؤهلات والخصائص التي سيستخدمها هذا النظام.
المبادرة الأوروبية تجسدها قانون الذكاء الاصطناعي

وإدراكًا منها للقضايا والمخاطر المرتبطة باستخدام الذكاء الاصطناعي ، لا سيما في مكان العمل ، قدمت المفوضية الأوروبية اقتراحًا بشأن لائحة أوروبية تحدد القواعد المنسقة في 21 أبريل 2021.

تقدم هذه اللائحة المقترحة تصنيفًا لأنظمة الذكاء الاصطناعي وفقًا لأربعة مستويات من المخاطر ، وتصنف أدوات الذكاء الاصطناعي المستخدمة في سياق التوظيف في ما يسمى أنظمة “المخاطر العالية” التي يتم التخطيط للعديد من الالتزامات التي تثقل كاهل الموردين.

وبالتالي ، تفرض اللائحة الأوروبية المقترحة قيودًا عليها قبل وبعد تسويق الأداة أو تشغيلها. تتعلق هذه الالتزامات برصد كل من المخاطر المرتبطة باستخدام الذكاء الاصطناعي وإدارتها ، وكذلك إنشاء وثائق فنية مفصلة ، ومعلومات المستخدمين لتمكينهم من تفسير نتائج النظام واستخدامه بشكل مناسب ولكن أيضًا الرقابة البشرية والتزام المتانة والدقة والأمن.

وبالتالي ، تفرض اللائحة الأوروبية المقترحة قيودًا عليها قبل وبعد تسويق الأداة أو تشغيلها. تتعلق هذه الالتزامات برصد كل من المخاطر المرتبطة باستخدام الذكاء الاصطناعي وإدارتها ، وكذلك إنشاء وثائق فنية مفصلة ، ومعلومات المستخدمين لتمكينهم من تفسير نتائج النظام واستخدامه بشكل مناسب ولكن أيضًا الرقابة البشرية والتزام المتانة والدقة والأمن.

بالتوازي مع هذه الالتزامات ، يجب على مقدمي هذه الأدوات أيضًا اتخاذ إجراءات تصحيحية ، وإبلاغ السلطات المختصة ، والتي سيتعين على الدول الأعضاء في نهاية المطاف تعيينها والتعاون معها وإتاحة عدد معين من الوثائق لهم لفترة من الوقت عشر سنوات بعد الطرح في السوق أو بدء تشغيل نظام الذكاء الاصطناعي. أخيرًا ، تتطلب اللائحة الأوروبية المقترحة أيضًا إنشاء نظام مراقبة ما بعد التسويق من أجل تقييم أداء نظام الذكاء الاصطناعي وكذلك الامتثال للمتطلبات المنصوص عليها في اللائحة طوال حياته.

كما تنص اللائحة المقترحة على عقوبات في حالة عدم الامتثال للمتطلبات التي تحددها. وبالتالي ، فإن أي خرق يكون عرضة لغرامة إدارية تصل إلى 20 مليون يورو ، أو إذا كان الجاني شركة ، يتم الاحتفاظ بما يصل إلى 4٪ من إجمالي مبيعاتها السنوية ، أيهما أعلى. يتم النص على عقوبات محددة في حالة حدوث خرق للالتزام برصد وكشف وتصحيح التحيزات من خلال سياسة إدارة البيانات أو تلك الخاصة بإبلاغ السلطات الوطنية المختصة. يتم تخفيف العقوبات المختلفة لمؤسسات ووكالات وهيئات الاتحاد.
عدم وجود تشريع محدد في فرنسا

حتى الآن ، لم يشرع أي تشريع أو اقتراح لتشريع محدد في فرنسا ، وبالتالي فإن مسألة التمييز من قبل الممثلين القانونيين في سياق التوظيف تحكمها الأحكام العامة لقانون العمل المتعلقة بحظر التمييز.

في الختام ، على الرغم من أن تقنيات الذكاء الاصطناعي المطبقة على الموارد البشرية واعدة ، إلا أنها بدأت تثير مخاوف جدية بين الجهات الحكومية. في الواقع ، هناك مثال شهير هو مثال شركة متعددة الجنسيات التي طورت ، ثم تخلت عن ، خوارزمية توظيف والتي ، على الرغم من عدم مراعاة جنس وعرق المرشحين ، فضلت إلى حد كبير المرشحين الذين يمارسون رياضة معينة يمارسها بشكل أساسي الرجال البيض. في مواجهة هذا النوع من الانجراف ، من المحتمل جدًا أن يظهر إطار تشريعي محدد مرتبط باستخدام الذكاء الاصطناعي في مجال الموارد البشرية قريبًا.

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

إغلاق