وفاء هاني عمر *
صاحب الإعلان عن إصدار تطبيق الدردشة والمحادثة “تشات جي بي تي” «ChatGPT» بعض الأقوال المتضاربة، بين مؤيد ومعارض لتلك التقنية الجديدة التي هي حتى الآن محل التجربة، فتناولت بعض الصحف والمراكز الأجنبية تخوف البعض لما قد يشكله هذا الروبوت من مخاطر على العملية التعليمية ومستقبل الديمقراطية… نعرض ما جاء فيهم فيما يلي:
تناول الكاتب “إيان بوجوست” في مقال نُشر له على مركز The Atlantic التأثير السلبي لإحدى أدوات الذكاء الاصطناعي (تشات جي بي تي ChatGPT) على العملية التعليمية.
أولاً وقبل كل شيء، يفتقر تطبيق الدردشة ChatGPT إلى القدرة على فهم تعقيدات اللغة والمحادثات البشرية، ببساطة يتم تدريبه على إنشاء كلمات بناءً على مدخلات معينة، لكنه لا يمتلك القدرة على فهم المعنى الكامن وراء هذه الكلمات، هذا يعني أن أي ردود يولدها من المحتمل أن تكون سطحية بلا معنى.
علاوة على ذلك، يثير الاعتماد على ChatGPT مخاوف أخلاقية. إذا بدأ الناس في الاعتماد على آلة لإجراء محادثات مع بعضهم البعض، فقد يؤدي ذلك إلى فقدان سمة من السمات الإنسانية وهي التواصل البشري. تعد القدرة على التواصل مع الآخرين من خلال المحادثة مهارة أساسية من المهارات البشرية، فمن المرجح أن يؤثر الاعتماد على هذا التطبيق وأشباهه سلباً على مجتمعنا.
من الناحية التعليمية، أشار كاتب المقال إلى إضرار التطبيق بجودة ومهارة الكتابة إذا اتخذه الطلاب والطالبات وسيلة لاجتياز الاختبارات المقالية “من مقالات”. فعلى الرغم من قدرة الروبوت من إنشاء نصوص بطلاقة إلا أنها أحياناً تفتقر إلى جودة الصياغة. إنها معادلة من حيث الهيكل والأسلوب والمحتوى.
يظن البعض أن ChatGPT صُمم لمساعدة الناس على ابتكار مقالات للطلاب، أو كتابة الأخبار، أو أي شيء آخر. إنها نتيجة سهلة لأولئك الذين يفترضون أن الذكاء الاصطناعي يمكن أن يحل محل الإبداع البشرى بدلاً من دعمه. لا يفهم أو حتى يستطيع الذكاء الاصطناعي أن يؤلف نصًا. فيعد تطبيق الذكاء الاصطناعي GPT ونماذج اللغات الكبيرة الأخرى أدوات جمالية وليست أدوات معرفية، أي أدوات مساعدة للإبداع البشرى لا أدوات بديلة عنه.
يرى الكاتب أن تقنية GPT وأشباهها من تطبيقات الذكاء الاصطناعي توفر فرصة للاستفادة القصوى من أجهزة الكمبيوتر لكن ليس لتنفيذ المهام الإبداعية.
- ●●
على الجانب الآخر، أشار الكاتبان “ناثان إي ساندرز” و”بروس شناير” في مقال نُشر لهما في صحيفة the new york times إلى خطورة هذا التطبيق على عمليات صنع القرار ومعايير الديمقراطية، فيمكن لـ (تشات جي بي تي) القيام بعمل مماثل لوكالة أبحاث الإنترنت الروسية في محاولتها للتأثير على انتخابات عام 2016 لكن دون الاحتياج لميزانية تصل لملايين الدولارات والمئات من الموظفين ذوي الخبرة.
إن التعليقات الصادرة من حسابات مزيفة ليست بالأمر الجديد، لكن طرأ تطور على هذا الأمر مع الإعلان عن تطبيق تشات جي بي تي، أي يمكنه أن يستهدف بشكل انتقائي المشرعين القانونيين والمؤثرين السياسيين- على سبيل المثال في مبنى الكابيتول في واشنطن- لتحديد نقاط الضعف في نظام صنع السياسات واستغلالها بلا رحمة.
يطلق على مرتكبي تلك الأفعال جماعات الضغط السياسي «اللوبي». ويقرن الوكلاء الناجحون في هذا المجال كتابة الرسائل الإلكترونية باستراتيجيات الاستهداف الذكي. يمكن الذكاء الاصطناعي- إذا اقترن بإمكانيات التوليد النصي لـChatGPT- من تحديد عضو الكونجرس الذي يتمتع بأكبر قدر من النفوذ في مجال سياسي معين ثم يأتي دور استراتيجيات الاستهداف الذكي.
بمجرد تحديد الأفراد والاستراتيجيات، يمكن لروبوت الدردشة ChatGPT صياغة جمل لاستخدامها في الرسائل والتعليقات الإلكترونية في أي مكان تكون ذا تأثير فيه.
يرى الكاتبان أن هذه القدرة على فهم الجهات المؤثرة داخل الشبكة العنكبوتية واستهدافها سيجعل الذكاء الاصطناعي أداة للقرصنة واستغلال نقاط الضعف في الأنظمة الاجتماعية والاقتصادية والسياسية بسرعة ونطاق لا يصدقان. ولأن الدافع لمهاجمة أنظمة صنع السياسات قوى جدًا ستكون الأنظمة التشريعية الهدف الأبرز لتلك العمليات. ما يزيد الأمر سوءاً هو صعوبة اكتشاف عمليات القرصنة، خاصة إذا تم استخدامها بشكل استراتيجي لتوجيه الجهات البشرية.
ما يجعل تهديد جماعات اللوبي المدعومة بالذكاء الاصطناعي أخطر من التهديد الذي تشكله بالفعل شركات الضغط السياسي في شارع K Street (حيثما تباع الديمقراطية) هو السرعة. تعتمد جماعات الضغط البشرية على عقود من الخبرة لإيجاد حلول استراتيجية لتحقيق نتيجة سياسية، على النقيض يمكن للذكاء الاصطناعي القيام بالدور ذاته بشكل أسرع وبتكلفة زهيدة.
علاوة على ذلك، يتسم الذكاء الاصطناعي بالمرونة- أي أنه لا يتقيد باختلاف الأنظمة والسياسة بين الدول- لذا يساعد في تحقيق التأثير على العديد من السياسات والسلطات القضائية في وقت واحد. تخيل أن اللوبي بدعم من تكنولوجيا الذكاء الاصطناعي يمكنه محاولة وضع تشريع في كل مشروع قانون يتم نقله إلى الكونجرس الأمريكي، أو حتى في جميع الهيئات التشريعية في الولايات المتحدة. بداية، تميل شركات الضغط إلى العمل داخل حدود دولة واحدة فقط نظرًا لبعض الاختلافات المعقدة في القانون والإجراءات والهيكل السياسي، لكن الوضع تغير الآن مع تكنولوجيا الذكاء الاصطناعي، فهي تساعد في تجاوز هذه الاختلافات ليصبح من السهل ممارسة وسائل الضغط عبر الحدود السياسية.
بالتالي سيتعين على الحكومات تغيير طرق التعامل مع جماعات الضغط مثلما سيتعين على المعلمين مع وجود ChatGPT تغيير طرق اختبار الطلاب سواء المقالية منها أو غيره من طرق الاختبار.
- ●●
من الناحية الفكرية، تناول كل من “هنري كيسنجر” و”إريك شميدت” و”دانييل هوتينلوشر” في مقال نشر لهم على صحيفة The Wall Street Journal تأثير تطبيق الدردشة والمحادثة “تشات جي بي تي” على الجانب الفكري للإنسان، فيشير كاتبو المقال إلى ما سيحدثه الذكاء الاصطناعي التوليدي (Generative AI) من ثورة فكرية مثلما حدث مع بداية عصر التنوير، لكن الفارق أن عصر التنوير بدأ تدريجياً- كل خطوة قابلة للاختبار والتعلم- عكس ما نشهده مع عصر الذكاء الاصطناعي. يتميز “تشات جي بي تي” بقدرة تخزين تفوق القدرة البشرية، أي أنه يستطيع الاحتفاظ بالكثير من المواد النصية وملايين الكتب.
تظهر إجابات ChatGPT وبياناته وملاحظاته دون تفسير عن مصدر المعلومة. يتسم عمل تطبيق الدردشة بالسرعة؛ في غضون ثوانٍ يمكن أن ينتج إجابات تشرح بشكل متماسك موضوعًا عالي المستوى. إنه قادر على دمج الافتراضات والاستدلالات النفسية غير الواضحة. يمكن أن يعطى الأولوية بين مليارات نقاط البيانات لتحديد مجموعة واحدة من 200 كلمة الأكثر صلة (أو ستظهر أكثر صلة بقارئ بشري). بكلماته الخاصة، فإنه يصدر أحكامًا احتمالية حول النتائج المستقبلية، ومزج المعلومات من المجالات المنفصلة إلى إجابة متكاملة. على الرغم من أن النموذج غير قادر على الفهم بالمعنى الإنساني، فإن مخرجاته تعكس جوهر اللغة البشرية الأساسية.
إن نقص الاستشهادات في إجابات ChatGPT يجعل من الصعب التمييز بين المعلومة الصائبة والخاطئة. نظرًا لأن ChatGPT مصمم للإجابة على الأسئلة، لذا يعرض أحيانًا معلومات تبدو حقيقية (للوهلة الأولى) لتوفير إجابة منطقية. تُعرف هذه الظاهرة بين باحثي الذكاء الاصطناعي باسم «الهلوسة»؛ حيث تجمع عبارات تبدو حقيقية للقارئ البشرى ولكن ليس لها أي أساس في الواقع. ما الذي يحفز هذه الأخطاء وكيفية التحكم فيها لا يزال الأمر غامضاً حتى الآن.
من العواقب التي تثير المخاوف أيضاً هو اللجوء إلى استخدام أدمغتنا بشكل أقل وآلاتنا أكثر، فقد يفقد البشر بعض القدرات الفكرية مثل التفكير النقدي والكتابة. يمكن أن يظهر تأثير الذكاء الاصطناعي التوليدي على التعليم في تراجع قدرة قادة المستقبل على التمييز بين ما يستشعرونه وما يستوعبونه.
من المهم أن يعزز البشر الثقة والقدرة على تحدي مخرجات أنظمة الذكاء الاصطناعي. يقلق الأطباء من أن نماذج التعلم العميق (Deep -Learning) المستخدمة لتقييم التصوير الطبي لأغراض التشخيص، قد تحل محل وظيفتهم. تصعد الآلات سلم القدرات البشرية، من التعرف على الأنماط الفكرية إلى التفكير المنطقي، فقد تبدأ في التنافس مع الوظائف البشرية في إدارة الدولة والقانون والأعمال التكتيكية مستقبلاً.
من الضروري أن نطور من قدرات التفكير النقدي للتمكن من اختبار الذكاء الاصطناعي التوليدي، ليس فقط لتبرير أو شرح إجابات الذكاء الاصطناعي ولكن أيضاً لاستجوابهم. المراد أن نتحقق من مدى مصداقية نتائج الذكاء الاصطناعي. وهذا سيتطلب التخفيف الواعي من تحيزاتنا اللاواعية، والتدريب الصارم والممارسة الغزيرة.
بدون الأسس الأخلاقية والفكرية المناسبة، يمكن للذكاء الاصطناعي أن يتحكم في إنسانيتنا وحبسنا إلى الأبد في سجنه. لذا تتطلب الثقة في الذكاء الاصطناعي التأكد من دقة أنظمة الـ (AI) وسلامته، ومواءمة أهداف الذكاء الاصطناعي مع الأهداف البشرية وفي مساءلة البشر الذين يتحكمون في تلك التكنولوجيا.
……………….
للاطلاع على النصوص الأصلية:
النص الأول:
النص الثاني:
النص الثالث:
ــــــــــــــــــــــــ
* كاتبة صحفية ومترجمة مصرية
المصدر: الشروق