الحرية أولاً , والديمقراطية غاية وطريق

الذكاء الاصطناعي ليس صادقاً دائماً

وفاء هاني عمر *

نشر موقع Eurasia review مقالاً للكاتب السويدي “بير بايلوند”، يقول فيه إن التهديد الحقيقي للذكاء الاصطناعي هو قدرته على تزييف الحقائق ونشر معلومات مُضللة كأنها حقيقة لا تحمل الشك. ويوضح الكاتب أن الذكاء الاصطناعي غير مُبدع بل يعمل وفق رؤى واتجاهات مُبتكريه، لذا يشير الكاتب إلى حقيقة استغلال بعض الشركات التكنولوجية والحكومات خوارزميات الذكاء الاصطناعي للسيطرة على الرأي العام وتشويه المعرفة بما يخدم مصالحهم.. نعرض من المقال ما يلي:

بداية، يقول كاتب المقال إن الذكاء الاصطناعي لا يستطيع التمييز بين الحقيقة والزيف. كما أنه ليس بإمكانه إنشاء محتوى جديد بل يكرر ويعيد تجميع وصياغة ما قيل بالفعل (ولكن ربما بطرق جديدة).

يدرك الكاتب تماماً أن هناك من سيختلف مع أقواله السابقة متحججاً بقدرة الذكاء الاصطناعي على إنشاء أغانٍ وكلمات جديدة. الطريف في الأمر أن هذه الحجة تُثبت صحة أقوال الكاتب بطريقة ما، وهذا لأن الذكاء الاصطناعي يُنتج كلمات الأغنية «الجديدة» فقط من خلال الاعتماد على بيانات كلمات الأغاني السابقة ثم يستخدم تلك المعلومات لإنشاء ما يبدو لنا أنه أغنية جديدة لا يوجد فيها أي فن ولا إبداع. إنها مجرد إعادة صياغة هيكلية لما هو موجود.

نقطة أخرى: يعد كل من عدم القدرة على التمييز بين الحقيقة والزيف، والربط الاستقرائي بأنماط البيانات الموجودة، من المشكلات التي يمكن تخفيفها برمجيًا، ولكنها لاتزال متاحة للتلاعب.

التلاعب والترويج الإعلامي:

عندما أطلقت جوجل برنامج (جيميني إيه آي) «Gemini AI» في شهر شباط/ فبراير الماضي، أصبح من الواضح على الفور أن الذكاء الاصطناعي لديه أجندة خاصة. فمثلاً، ظاهرياً يلتزم الذكاء الاصطناعي بتنوع الأعراق والأجناس في كل استجابة يمكن تصورها، لكنه مؤخراً رفض عرض صور للأشخاص ذوي البشرة البيضاء مما أدى إلى نشر صور تاريخية زائفة رداً على طلب أحد المستخدمين (عرض التطبيق صوراً تاريخية للنازيين والآباء المؤسسين لأمريكا كأشخاص ذوي بشرة سمراء).

وقد لخص مارك أندريسن، خبير التكنولوجيا والمستثمر في وادى السليكون، ذلك على موقع X (تويتر سابقًا)، قائلاً إن الذكاء الاصطناعي ينفذ بدقة ما يطلبه منه مُبتكروه، بمعنى أوضح هو يعمل كما تم تصميمه.

بعبارة أخرى، يشير الكاتب إلى أن لأنظمة الذكاء الاصطناعي تصميماً يتجاوز نتائج محركات التوليد، فالاستجابات للأوامر ليست استقرائية أو توليدية تمامًا. وهذا ضروري إلى حد ما لجعل الذكاء الاصطناعي مفيدًا: حيث يتم تطبيق المرشِحات والقواعد للتأكد من أن الاستجابات التي يولدها الذكاء الاصطناعي ملائمة قانونياً وأخلاقياً، وتتناسب مع توقعات المستخدم. ونظرًا للوضع القانوني، يجب على منشئ الذكاء الاصطناعي أيضًا التأكد من أنه لا ينتهك، على سبيل المثال، قوانين الملكية الفكرية أو ينخرط في خطاب الكراهية. لذا تم تصميم الذكاء الاصطناعي بحيث لا يفسد أو يسيء إلى مستخدميه. لكنه من الصعب التمييز برمجياً بين الرد المُهين والمُسيء ضمن حدود الخطاب المسموح به.

لكن ما يحدث أحياناً هو توجيه الاستجابات المتولدة إلى ما هو أبعد من مجرد ضمان الجودة. مع وجود تقنية فحص الاستجابات، من السهل جعل الذكاء الاصطناعي يدلي ببيانات من نوع معين أو دفع المستخدم في اتجاه معين (من حيث الحقائق والتفسيرات ووجهات النظر العالمية المختارة).

وبالتالي، يمكن استخدام الذكاء الاصطناعي كأداة دعائية فعالة، وهو ما أدركته الشركات التي أنشأته والحكومات والوكالات التي تنظمه.

الأخطاء والمعلومات الزائفة:

لقد رفضت الدول منذ فترة طويلة الاعتراف بأنها تستخدم الذكاء الاصطناعي التوليدي في الدعاية لتوجيه رعاياها والسيطرة عليهم. ويرجع ذلك إلى رغبتهم في الحفاظ على جزء من الشرعية كحكومات ديمقراطية تحكم على أساس (وليس تشكيل) آراء الناس. الدعاية لها تأثير سيئ، إنها وسيلة للسيطرة.

ومع ذلك، يقال إن أعداء الدولة- سواء في الداخل أو الخارج- يدركون قوة الدعاية ولا يترددون في استخدامها لإحداث الفوضى في المجتمع الديمقراطي غير الملوث. ويزعمون أن الحكومة يجب أن تنقذهم من مثل هذا التلاعب. وبطبيعة الحال، نادراً ما يتوقف الأمر عند مجرد الدفاع. ويقول الكاتب: لقد رأينا هذا بوضوح خلال جائحة كوفيد، حيث منعت الحكومة وشركات التواصل الاجتماعي التعبير عن آراء لم تكن ضمن حدود المسموح به. فمن السهل التلاعب بالذكاء الاصطناعي لأغراض الدعاية مثلما يحدث مع خوارزميات وسائل التواصل الاجتماعي.

إذن النتيجة النهائية لذلك أنه إذا وُجهت تعليمات إلى الذكاء الاصطناعي بعدم التعليق على أشياء معينة لا يريد مبتكروه (أو المنظمون) أن يراها الناس أو يتعلموها، فلن ينتشر هذا النوع من المعلومات «غير المرغوب فيه».

وبطبيعة الحال، لا شيء يعني أن ما يتم تقديمه للمستخدم صحيح مائة بالمائة. في الواقع، لا يستطيع الذكاء الاصطناعي التمييز بين الحقيقي والمُزيَف ولكنه يولد فقط الاستجابات المتسقة مع البيانات التي تمت تغذيته بها. وهذا يترك مجالًا واسعًا لتحريف الحقيقة وجعل العالم يصدق الأكاذيب. لذلك، يمكن استخدام الذكاء الاصطناعي بسهولة لفرض السيطرة، سواء كان ذلك على دولة ما، أو على رعايا خاضعين لحكمها، أو حتى على قوة أجنبية.

التهديد الحقيقي للذكاء الاصطناعي:

إذن، ما هو التهديد الحقيقي الذي يشكله الذكاء الاصطناعي؟ إن نماذج اللغات الكبيرة مثل تقنية (شات جي بي تي) «Chat GPT» لا يمكنها أن تتطور إلى ذكاء عام اصطناعي، حيث لا يوجد شيء يتعلق بالغربلة الاستقرائية من خلال مجموعات كبيرة من المعلومات التي تم إنشاؤها (بشريًا) والتي من شأنها أن تؤدي إلى الوعي. ويضيف الكاتب، نحن لم نكتشف حتى ما هو الوعي، لذا فإن الاعتقاد بأننا سوف نخلقه (أو أنه سينشأ بطريقة أو بأخرى من الخوارزميات التي تكتشف الارتباطات اللغوية الإحصائية في النصوص الموجودة) هو أمر مبالغ فيه تمامًا. الذكاء العام الاصطناعي لا يزال افتراضياً.

يؤكد كاتب المقال أن أنظمة الذكاء الاصطناعي لا تهدد الاقتصاد، فهو لن يجعل البشر غير فاعلين اقتصادياً مسبباً بطالة جماعية. الذكاء الاصطناعي هو رأس مال إنتاجي، تتحدد قيمته بقدرته على خدمة المستهلكين وتلبية رغباتهم. ويشبّه الكاتب قيمة الذكاء الاصطناعي بالمصنع الذي إذا أُسيئ استخدامه أصبح مثل الخردة. ومع ذلك، هذا لا يعني أن الذكاء الاصطناعي لن يكون له أي تأثير على الاقتصاد. بالطبع له تأثير لكنه ليس كبيرًا على المدى القصير كما يخشى البعض، ومن المرجح أن يكون أكبر مما نتوقع على المدى الطويل.

إن التهديد الحقيقي هو تأثير الذكاء الاصطناعي على المعلومات. ويرجع ذلك جزئيًا إلى أن الاستقراء مصدر غير مناسب للمعرفة، فالحقيقة ليست مسألة تكرار أو احتمالات إحصائية. إذن سيتم التخلص من الأدلة والنظريات التي قدمها نيكولاس كوبرنيكوس وجاليليو جاليلي باعتبارها غير محتملة (خاطئة) والاعتماد على الذكاء الاصطناعي المدرب على جميع الكتابات (الأفضل والألمع) حول مركزية الأرض في ذلك الوقت.

ومع ذلك، ربما يمكن التغلب على هذه المشكلة عن طريق البرمجة الذكية (أي تنفيذ القواعد- والقيود القائمة على الحقائق- لمشكلة الاستقراء)، إلى حد ما. تكمن المشكلة الأكبر في فساد ما يقدمه الذكاء الاصطناعي: المعلومات المُضللة التي يوجهها منشئوه وبعض الحكومات وجماعات الضغط للسيطرة على الرأي العام.

وهذا هو الخطر الحقيقي الذي أشارت إليه الرسالة المفتوحة الشهيرة، والتي وقعها إيلون ماسك، وستيف وزنياك، وآخرون: «هل ينبغي لنا أن نسمح للآلات بإغراق قنوات المعلومات لدينا بالدعاية والكذب؟ هل يجب علينا أتمتة جميع الوظائف؟ هل يجب علينا تطوير عقول غير بشرية قد تتفوق علينا فى النهاية عددًا، وتتفوق علينا في الذكاء، وتتقادم، وتحل محلنا؟ هل يجب أن نخاطر بفقدان السيطرة على حضارتنا؟».

جوهر القول، أن الذكاء الاصطناعي لن يحاول إبادة البشرية مثل فيلم The Terminator. ولن يجعل البشرية بطاريات بيولوجية، كما في فيلم The Matrix. لكنه يساعد على الفوضى والتضليل إذا أسيئ استخدام وربما يجعل الحياة البشرية «منعزلة، ووحشية، وقصيرة».

 ……………

النص الأصلي

ــــــــــــــــــــ

* كاتبة صحفية ومترجمة مصرية

خدمة الشروق

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.