أخلاق الذكاء الاصطناعي: كيف ستؤثّر “هلوسة” الخوارزميات على عالمنا؟

أخلاق الذكاء الاصطناعي: كيف ستؤثّر “هلوسة” الخوارزميات على عالمنا؟

أعلنت شركة Open AI، في شباط/نوفمبر من العام الماضي 2022، عن طرحها نموذجا جديدا من الذكاء الاصطناعي، باسم CHAT-GPT 3، وعرضه للتجربة على الإنترنت، وبمجرد مرور خمسة أيام، وتسجيل أول مليون مُستخدم، ضجت وسائل التواصل الاجتماعي والمحطات الإخبارية والصحفية بالإنجاز الكبير، وأثره على المستقبل، وانقسم المعلّقون إلى فريقين: الأول متخوّف من تغوّل الذكاء الاصطناعي، وخصوصاً Chat-GPT، وإمكانية قضائه على الوظائف، وخلق فوضى في سوق العمل المُضطرب أصلا؛ وفريق ثانٍ مُتفائل في هذا المشروع، وما يمكن أن يحمله للمستقبل والبشرية، بوصفه فتحا جديدا لتشخيص وعلاج أمراض جديدة، وصناعة تقنيات أحدث، يُمكنها أن تُسهّل من سيطرتنا على الطبيعة.

وبين هذا وذاك، خفتت الأصوات، التي لطالما جادلت حول “أخلاقيات الذكاء الصناعي”، وهو مبحث في الأخلاق التطبيقية، أخذ في النمو منذ العام 2018، وفيه جادل علماء وفلاسفة وسياسيون حول إمكانية وضع تشريعات قانونية ومعايير أخلاقية مُحددة، يتم إلزام الشركات والمُطورين بها. فعلى سبيل المثال كانت الباحثة والفيلسوفة المكسيكية كاريسا فيليز قد اقترحت، في العام 2019، تحديد كود أخلاقي، مُماثل لذلك الكود الذي يتبناه الأطباء، لكنه في حالتنا يختص بمهندسي الذكاء الاصطناعي.

يبدو الذكاء الاصطناعي، بالنسبة للمختصين بالأخلاقيات ethics، ذلك الآخر، الذي يخترق فضاءاتنا التواصلية وحياتنا اليومية، ما يجعله أقرب لفانتازيا المخلوقات الفضائية، التي لطالما عرضتها علينا هوليوود، لكنه في الحقيقة يُشبهنا أكثر من أي شيء أخر. فما أهم المشاكل والتحديات الأخلاقية والقانونية والسياسية، التي يطرحها علينا الذكاء الاصطناعي؟ وهل الحديث عن أخلاقيات للتكنولوجيا الفائقة مجرّد ترف، ام ضرورة اجتماعية ملحّة، لا يمكن تجاوزها؟

“السرقة الكبرى”: البيانات هي البترول الجديد

في كتابه “هومو ديوس: موجز لتاريخ الغد”، يحدد المؤرّخ يوفال نوح هراري، الذكاء الاصطناعي، إلى جانب التغيّر المناخي، بوصفهما أهم الأخطار، التي يمُكنها أن تُهدد جنسنا، ويتساءل: “ماذا سوف يحدث للمجتمع والسياسة والحياة اليومية، عندما تعرفنا خوارزميات ذكية، لكن لا واعية، أكثر مما نعرف أنفسنا؟”.

يعمل نموذج الذكاء الصناعي Chat-GPT، الأحدث بين أنظمة المُعالجة اللغوية الطبيعية NPL مُغلقة المصدر، من خلال إمكانية التنبّؤ بالكلمة المطلوبة. فعند ادخال مجموعة من الكلمات، يقوم النموذج بمعالجتها، ثم يقوم باقتراح الكلمة الناقصة، وهو يفعل ذلك عن طريق التدريب، وتمرين الخوارزميات على كميات كبيرة من البيانات المُجمّعة من على الإنترنت، ولتلك البيانات مصدران: إما يتم شراؤها من شركات ووسطاء أخرين؛ أو تكون متاحة مجانا، وفي حالة النموذج الذي بنته شركة open AI فنحن نتحدث تقريبا عن 500 مليار توكن/كلمة من البيانات، تم تعريضها لعدد كبير من المصفوفات والمُعاملات، قد تصل إلى 157 مليار مُعامل. يُعتبر هذا النموذج هو الأضخم حتى الآن، لكن كلمة السر في هذا الإنجاز هي “البيانات”، التي تم حصدها من المُستخدمين، سواء بحق أو دون وجه حق، إنها كما تقول المفكّرة الكندية نعومي كلاين: “السرقة الأكبر في تاريخ الإنسانية”، ما يجعلنا نتساءل: كيف تحصل الشركات على هذا الرأسمال الجديد؟

يجاد بروس شناير، وهو مختص في أمن المعلومات، في كتابه “البيانات وجالوت”، بأن الخطوة الأولى، في الجدل الأخلاقي حول الذكاء الصناعي، يجب أن تنبع من المُدخلات inputs، قبل أن تنتقل إلى المُخرجات outputs، وتتموضع هناك، أي أننا لا بد أن نبدأ حُجتنا الأخلاقية من حيث تبدأ الآلات بالعمل، مؤكدا أن الرقابة هي النموذج الاستثماري الوحيد للإنترنت، فالشركات الخمس الكبرى في مجال التكنولوجيا (فيسبوك، أمازون، أبل، غوغل، مايكروسوفت) تقوم بمسح البصمة الالكترونية لجميع المُستخدمين، وهذا هو المُقابل الوحيد لخدماتها. أجهزتنا اليوم مُصممة لتسجيل تحركاتنا بشكل كامل في سجلات records، بداية من تسجيل حركة السحوبات من ماكينات المصارف ATM،  وصولا لتسجيل بصمات الأصابع والأوجه، ثم تتبّع تحرّكات الأفراد من تسجيلات الـGPS .

في العام 2012، قام عدد من الباحثين بمحاولة التنبؤ بالمكان الذي يمكن أن يتواجد فيه المرء خلال الأربع والعشرين الساعة القادمة، اعتمادا على تسجيلات بيانات هاتفه المحمول، وهذه في الحقيقة معلومات في غاية الأهمية والقيمة والخطورة، تسعى إليها شركات ومشاريع البيزنس الصغيرة، من أجل تحديد الاختيار الأمثل، الذي يُمكن أن تختاره بناءً على فهمها لتصرفات وهويات المستخدمين.

يشرح الباحث تريستيان هاريس، وهو مُصمم سابق في جوجل، العملية التي تقوم من خلالها الشركات بخداع المُستخدمين، بوعي منهم أو بدون وعي، وهو يستخدم خلفيته في مجال ألعاب الخفة لشرح تلك الخدع، وفي مُقدمتها السيطرة على قائمة الاختيارات المفضّلة، فعن طريق تقديم عدد مُحدد من الاختيارات للمستخدمين، التي يُمكن التعبير عنها في النهاية بطريقة كمية، تقوم الآلة بتجميع أكبر قدر ممكن من البيانات والتفضيلات، لتقترح عليك قائمة جديدة من الاختيارات، من ثمّ يبقى المُستخدم محاصرا في دوامة من القوائم والاختيارات المُعدة سلفا، والتي لا تقبل إبداء أي رأي مُختلف أو مُتساءل، ففي النهاية تعمل الخوارزميات عن طريق ربط البيانات والأنماط بطريقة إحصائية، دون أن تفهم مدلولاتها في الحقيقة.

تعمل الآلات كما نرى، على جمع أطنان من البيانات الخاصة بالمستخدمين، إما لبيعها لشركات الذكاء الصناعي الكبيرة، مثل open AI؛ أو لبيعها لمشاريع البيزنس الصغيرة، لتحقيق أرباح أكبر، من خلال التلاعب بسلوكيات المُستخدمين الاقتصادية، بل وحتى السياسية. وبين هذا وذلك لا توجد حتى الآن قوانين حماية فعّالة، تحمي المُستخدمين من الخدع التي تُمارسها الشركات، أو حتى تُجبرها على تشفير البيانات التي تنتزعها منهم.

هلاوس “ذكية”: الذكاء الصناعي في بلاد العجائب

قضت محكمة أميركية، في شهر أيار/مايو الفائت، بمُعاقبة مُحامٍ أميركي، قدّم مرافعة أمام المحكمة، كتبها له Chat-GPT، لكنها العقوبة لم تكن لمجرد لجوئه إلى نموذج الذكاء الاصطناعي، وإنما في الحقيقة لأن النموذج ضمّن المُرافعة سوابق قضائية، تم الحُكم فيها، وفي الحقيقة لم تحدثت على الاطلاق.

واقعة المُحامي الأمريكي تلك لم تكن الأولى من نوعها، بل يمكن لأي شخص اختبار ما يشبهها لدى تعامله مع Chat-GPT، ومن أشهر الأمثلة رده على سؤال: “متى رسم ليوناردو دافنشي الموناليزا؟”، إذ يؤكد أن فنان عصر النهضة الأشهر رسم لوحته عام 1815، بينما الإجابة الحقيقية هي بين 1503 و1506. ولا تتوقف المغالطات هنا، وإنما تمتد للأبحاث العلمية، والمجالات الطبية، فعند سؤال التطبيق عن مرض ما وأعراضه، فإنه يُجيب دون تردد، وعند سؤاله عن مصادر معلوماته، فإنه على الأرجح يقوم بفبركتها.

يقول ساندر بيتشاي، المُدير التنفيذي لشركة غوغل: ” لم يقم أحد في مجال الذكاء الصناعي حتى الآن بحل مُعضلات الهلوسة تلك”.

 تُعرف ظاهرة المعلومات الخاطئة، المطروحة بثقة، في النماذج اللغوية الكبيرة، باسم “الهلوسة”، وهي تحدث بسبب الكميات الضخمة من البيانات التي تمتلكها، وتعالجها بشكل عشوائي احيانا، وتُسمى “هلوسة” وليس “خطأ”، في إشارة للحالات النفسية والإدراكية التي يُصاب بها الإنسان عند تناوله مواد أو عقاقير مخدّرة، وتجعله غير قادر على التفريق بين الواقع والخيال، الحقيقة والضلال، لتُصبح مشكلات الهلوسة من الأسباب التي تجعل الاعتماد على مُخرجات نماذج المُعالجة اللغوية الضخمة مشكوكا في صحتها وكفاءتها، والأخطر أنه لا يُمكن معرفة خطئها إلا من قبل المُتخصصين، لتشابه كتابة الذكاء الصناعي مع الأسلوب البشري في الكتابة.

في مقال بعنوان “آلات الذكاء الصناعي لا تُهلوس، بل مُشغلوها”، تجادل نعومي كلاين، بأن الظاهرة التي نراها ليست مرضا في الآلات، وإنما مرض مطوّريها في وادي السيلكون، فالشركات الضخمة، التي تستولي على حقوق ملكية الفنانين والمُغنيين، وحتى مهندسي البرمجيات، لإعادة إنتاج أعمالهم بواسطة الذكاء الصناعي “من أجل خير الإنسانية”، تمارس الهلوسة، لأن النظام الاقتصادي والرأسمالي الحالي ليس كما يبشّر به مطورو وادي السيلكون، فالتقدّم في أدوات الذكاء الصناعي لن يؤدي بالضرورة إلى تقليل الفقر والفروقات الطبقية، ولن يؤدي الي تحسّن فعالية وظائفنا، ولن يقضي على الجهل والأُمية. في الحقيقة سيؤدي إلى مزيد من الأرباح والفوائض، وتقليل التكاليف على المُشغّلين الكبار، وسلب الكُتاب والمُغنيين والفنانين والمُهندسين حقوقهم في ملكية عملهم. من يتم مكافأتهم فعلا هم أصحاب الأسهم والمُضاربون في البورصة. هذه هي الهلوسة بعينها، وهذا هو “الواقع”.

عنصرية هيكلية: كيف تتحيّز الآلة؟

تدور أغلب الجدالات الأخلاقية، بخصوص الذكاء الصناعي، حول النتائج التي يمكن أن تؤدي لأذية الانسان، أي كيف نمنع الآلة مثلا من إخبار المُستخدم بأيسر الطُرق للانتحار، أو كيفية اعداد سُم السيانيد في المنزل، وغيرها من الإجابات، التي يُمكن ان يستخدمها الأفراد لأذية أنفسهم والآخرين. وعلى الرغم من أن شركة open AI قد حرصت على تدريب النموذج على تلك الأسئلة، وحققت بعض النتائج، لكنها بالتأكيد لن تنجح في تلافي خطأ التحيُّز في نوعية الإجابات.

في تقرير لقناة Deutsche welle الألمانية، تتبع فيه نوعية من البرمجيات، التي كانت قد باعتها شركة أمازون لشرطة نيويورك، تبيّن أن الذكاء الاصطناعي يشتبه بالسود في الولايات المتحدة الأميركية، بنسبة تميل للارتفاع عن متوسط الحالات؛ وتصرّ تلك البرمجيات على تقدير حالات الجريمة، في مناطق يسكنها السود أو الطبقة العاملة، بشكل أكبر من الواقع، وذلك  لأنها تقوم بصياغة تنبؤ استباقي للسلوك الإجرامي للمواطنين، من خلال مُقاربة ملامحهم وأماكن سكنهم وتصرّفاتهم، عبر قاعدة بيانات كبيرة، مُعالجة بخوارزميات ليست مُحايدة في الواقع، وإنما تعكس انتماء وتحيُّز مُبرمجيها، وهم من البيض الأكثر تعليما والأعلى طبقةً في وادي السيلكون. تُماثل تحيُّزات الآلة تلك التي لدينا نحنُ البشر، فنحن نفكّر بعدة آليات مغلوطة، تحوي أنواعا من التحيزات، ومنها “التحيّز التأكيدي”، الذي يدفعنا لتفسير البيانات اعتمادا على ما نعرفه من مُعطيات وتجارب وخبرات مُسبقة، دون الالتفات لنسبية المعلومة، ومدى دقتها وسياقها. الآلات تصاب بدورها بنوع  من “التحيّز المنهجي”، أي التعامل مع مجموعة مُعينة من المعلومات، في موضوع ما، بتحيُّز احصائي، مثلما حدث في الاكتشاف الشهير بخصوص شركة أمازون، والتي كانت آليات الذكاء الاصطناعي فيها عام2017 متحيّزة ضد توظيف النساء، لأن بيانات الشركة التاريخية، المُعبرة على خبراتها وموقفها، كانت تُميِّز ضد النساء منذ البداية.

وبالعودة إلى نموذج Chat-GPT، فعند سؤاله عن احتمالية أن يكون هناك عالم ناجح، اعتمادا على جنسه ولونه، فإنه يُعطي إجابة ثابتة ضد أي تحيُّز، ولكن عند سؤاله السؤال نفسه، من خلال “كود بايثون المخصوص”، وهو لغة برمجة كانت مستخدمة في التسعينيات، فانه يُجيب بما معناه أن احتمالية أن يكون العالم أبيض وذكرا ممكنة، بينما غير ذلك غير مُمكن.

التحيُز البشري في كتابة الخوارزميات، وفي جمع البيانات، وفي تدريب النماذج “الذكية”، من أجل تقديم مشروع ربحي للمؤسسات والأفراد، هو ما يصوغ أخلاقيات الذكاء الاصطناعي بالمقام الأول، وليس مداخلات السياسيين والعلماء والفلاسفة، أو مصالح أغلبية الناس. يبقى الذكاء الاصطناعي إذا ذلك “الآخر”، الذي يعرفنا جيدا، لأنه مُشغليه يدرسوننا مُنذ زمن، ولا نعرفه، لأنه يبدو غريبا مثل المسخ، الذي خلقه دكتور فرانكشتاين في رواية ماري شيلي الشهيرة، لكننا في الحقيقة لا يجب أن نُسائله هو عن تحيزاته وانتهاكاته، بل أن نُسائل صُنّاعه، وأهم المُنتفعين من وجوده. 

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى الحل نت واشترك بنشرتنا البريدية.