نحو ميثاق أخلاقي للبحث الاجتماعي في عصر الذكاء الاصطناعي: دراسة ميدانية

نوع المستند : المقالة الأصلية

المؤلف

جامعة الاسکندرية- کلية التربية- قسم العلوم الاجتماعية

المستخلص

تهدف الدراسة الحالية إلى محاولة الوصول إلى ميثاق أخلاقي لاستخدام تطبيقات الذكاء  الاصطناعي في مجال البحث الاجتماعي. وبالاعتماد على المقولات الفكرية لنظرية مجتمع المخاطر، واستخدام منهج المسح الاجتماعي بالعينة. قامت الدراسة بسحب عينيتين عمديتين، الأولي من الباحثين الاجتماعيين المستخدمين لوسائل الذكاء الاصطناعي، وبلغ عددهم 41 حالة، رُوعي في اختيار العينة أن يكون الباحثون الاجتماعيون من مستخدمي تطبيقات الذكاء الاصطناعي في أبحاثهم الاجتماعية، والعينة العمدية الأخرى من المفحوصين الاجتماعيين من الشباب الجامعي بوصفه أكثر تعرضًا لآليات الذكاء الاصطناعي خلال التعليم وأكثر استخدامًا للحاسب الآلي والإنترنت، والذين قاموا باستيفاء أدوات جمع بيانات من خلال وسائل الكترونية، وبلغ عددهم 150 حالة.
توصلت الدراسة إلى أن الحاجة أكثر إلحاحًا – في ضوء التغيرات السريعة المتلاحقة-  إلى وجود ميثاق أخلاقي عام يُجمع عليه علماء الاجتماع والباحثون؛ يحدد المحاذير أخلاقية التي قد تصاحب هذا الاستخدام التقني، ويوصي بضرورة تفعيل نظام لمحاسبة الخارجين عنه.  وفي ذلك ما يكفل للبحث الاجتماعي الحفاظ على قيمه الأخلاقية من جانب، وعدم التأخر عن ركب التطور بالاستفادة من منجزات الذكاء الاصطناعي وتطبيقاته من جانب آخر.
كما حرصت الدراسة على وضع نموذج تصوري مقترح لميثاق أخلاقي يتم الاسترشاد به عند استخدام تطبيقات الذكاء الاصطناعي في البحث الاجتماعي، يتضمن أبعاد هامة، وهي: الشفافية، وعدم الاضرار، والخصوصية والأمان، والعدالة، والمساءلة والمسؤولية.

الكلمات الرئيسية