قضايا ودراسات

مبادئ إرشادية أخلاقية لتكنولوجيا المستقبل

رافائيل كالفينو*
دوريان بيترز*

يجب أن يتحمل قادة التكنولوجيا في المستقبل، مسؤولية ضمان عودة التكنولوجيا التي نبنيها كبشر، بمنافع أصيلة علينا وعلى كوكبنا.
إذا كان الأطفال يقضون ساعات في اليوم يتحدثون إلى المُساعد الشخصي الرقمي (اليكسا)، فكيف سيؤثر ذلك على طريقة اتصالهم بالناس الحقيقيين؟ وعندما تدهس سيارة ذاتية القيادة أحد المشاة، فمَن يؤخذ إلى المحكمة؟ وهل من المقبول التلاعب بمشاعر الناس، إذا كان ذلك يجعلهم أكثر سعادة؟
شرعنا مع فريق دولي من الباحثين في مجالات متنوعة، مثل الفلسفة والهندسة والأنثروبولوجيا، في معالجة هذه الأسئلة. وكانت النتيجة مجموعة جديدة من المبادئ التوجيهية، التي تركز على التداعيات الأخلاقية والاجتماعية للنظم المستقلة والذكية، وذلك يشمل كل شيء من البيانات الضخمة، وخوارزميات وسائل الإعلام الاجتماعية، إلى الأسلحة المستقلة. وقد نُشر التقرير الذي يحمل عنوان: التصميم المنحاز أخلاقياً، يوم 13 12، من قِبل معهد مهندسي الكهرباء والإلكترونيات. وجاء التقرير تتويجاً لعام من العمل من قِبل 250 من قادة العالم في التكنولوجيا، والقانون والعلوم الاجتماعية، والأعمال والحكومة، في ستّ قارات.
والمعهد المذكور، هو أكبر منظمة مهنية تقنية في العالم. وبما يزيد على 420 ألف عضو في 160 بلداً، يشكل السلطة العالمية للمعايير المهنية ذات الصلة بالتكنولوجيا. ويقترح التقرير الأخير مجموعة من التوصيات (الاقتراحات) المفتوحة؛ لإبداء التعليقات العامة.
وعندما يتم اعتماد المبادئ الإرشادية الواردة في التقرير، فستُطبّق من قبل المنظمات المهنية، ومجالس الاعتماد، والمؤسسات التعليمية؛ لضمان قيام الجيل القادم من المهندسين بإدماج الاعتبارات الأخلاقية في عملهم.
والأسئلة الكبيرة التي يطرحها مستقبلنا الرقمي، تقع عند التقاطع بين التكنولوجيا والأخلاق. وهذه منطقة معقدة تتطلب مداخلات من خبراء في العديد من الميادين المختلفة، إذا كنا نريد الإبحار فيها بنجاح.
ولإعداد التقرير، أجرى خبراء اقتصاد وعلماء اجتماع، أبحاثاً في أثر التكنولوجيا على الجماعات المحرومة من التأثير، ونظر محامون في مستقبل الخصوصية والعدالة، ودرس أطباء وعلماء نفس الآثار الصحية والبدنية والعقلية، وكشف فلاسفة تحيزات خفية ومسائل أخلاقية.
ويذكر التقرير أن على جميع التكنولوجيات أن تسترشد بخمسة مبادئ عامة:
حماية حقوق الإنسان.
ترتيب أولويات معايير راسخة لقياس الرفاهية، وتطبيق تلك المعايير.
ضمان مساءلة مصمّمي التكنولوجيات الجديدة ومشغليها.
جعل العمليات شفافة.
تقليل مخاطر إساءة الاستخدام إلى الحد الأدنى.
ويشمل التقرير طيفاً كاملاً من الهموم العملية إلى الأكثر تجريداً، ويتطرق إلى ملكية البيانات الشخصية، والأسلحة المستقلة، والإحلال الوظيفي، وأسئلة من قبيل: هل يمكن للقرارات التي تتخذها نظم غير أخلاقية، أن تكون لها عواقب أخلاقية؟
وثمة قسم حول الحوسبة الوجدانية، وهي مجال يدرس كيف يمكن للحواسيب أن تستكشف، وتعبّر عن وحتى «تحسّ» العواطف ويطرح هذا القسم مخاوف بشأن الكيفية التي يمكن أن يغيّر بها التفاعل الطويل الأمد مع الحواسيب، طريقة تفاعل الناس في ما بينهم.
وهذا يعيدنا إلى السؤال الذي طرحناه في البداية: إذا كان الأطفال يقضون ساعات في اليوم يتحدثون مع تطبيق سيري أو اليكسا، فكيف ستغيّرهم هذه التفاعلات؟
يطرح التقرير توصيتين في هذا الصدد:
1 أن نعترف بمقدار ما لا نعرفه، نحن في حاجة إلى معرفة أكثر من ذلك بكثير، قبل أن تصبح هذه النظم مستخدمة على نطاق واسع.
2 أنّ البشر الذين يشهدون آثاراً سلبية (الآباء والأمهات والأخصائيون الاجتماعيون والحكومات) يتعلمون اكتشافها ولديهم طرق للتعامل معها، أو حتى إيقاف التقنيات. وتبيّن التجربة أن ذلك ليس سهلاً دائماً؛ حاول منع طفلك من مشاهدة يوتيوب وانظر مدى نجاح ذلك.
ومن الواضح أن الحوسبة الوجدانية مجال نحتار بوجه خاص في إثبات أثره البشري.
وسيتم إصدار النسخة النهائية خلال العام القادم، على هيئة كتيب يضم توصيات يمكن لعلماء التكنولوجيا وصانعي السياسات، أن يرجعوا إليها، ويكونوا مسؤولين على ضوئها، مع تطوّر مستقبلنا التكنولوجي.

*رافائيل كالفينو، أستاذ في جامعة سيدني بأستراليا.
ودوريان بيترز، قائدة مبدعة في مختبر الحوسبة الإيجابية بالجامعة ذاتها


Original Article



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى