وايزر لوك
“علينا أن نختار ما بين الأمان والمراقبة، إما أن يتجسس الكل على الآخر، أو لا يتجسس أحد على أحد” …بروس شناير

كيف يمكن أن يشوّه الذكاء الاصطناعي العلاقات الإنسانية ويغيّر من مفهومها؟

“تحكم في الأمر على النحو الذي تريده، وتواصل مع شريك افتراضي عبر الذكاء الاصطناعي ينصت إليك، ويلبي احتياجاتك، ويحترمك”؛ هذه عينة من الشعارات التي يروّجها تطبيق Eva AI الذي يُفترض أنه يوفر لك شريكة تشتغل بالذكاء الاصطناعي، كما يقول تقرير لصحيفة The Guardian البريطانية.

فبعد مرور 10 سنوات على وقوع الشخصية التي أدَّاها الممثل يواكين فينكس في حب رفيقته “سامانثا”، التي تعمل بالذكاء الاصطناعي -والتي مثَّلت دورها الممثلة الأمريكية سكارليت جوهانسون- في فيلم “هي” Her، الذي قدّمه المخرج الأمريكي سبايك جونز، فإن انتشار “نماذج اللغات الكبيرة” (LLMs) أدَّى إلى جعلِ تطبيقات الذكاء الاصطناعي من هذا النوع أقرب إلينا من أي وقت مضى.

كيف يمكن أن يشوّه الذكاء الاصطناعي العلاقات الإنسانية ويغيّر من مفهومها؟

تقول “الغارديان”، إنه بالنظر إلى التحسن الذي تشهده تطبيقات الدردشة بالذكاء الاصطناعي مثل ChatGPT وتطبيق Google Bard في محاكاة المحادثات البشرية، يبدو أنه من المحتم أن يكون لهذه التطبيقات تأثير ذو شأن في العلاقات الإنسانية عما قريب. وتطبيق Eva AI ليس إلا تطبيقاً واحداً من بين خيارات كثيرة متاحة في السوق.

يحتوي تطبيق “ريبليكا” Replika -وهو أكثر التطبيقات شيوعاً في هذا السياق- على “منتدى” subreddit خاص به يتحدث فيه المستخدمون عن مدى حبهم لـ”شريك الذكاء الاصطناعي”، ويقول بعضهم إنهم ما لبثوا أن غيَّروا رأيهم بعد أن ظنوا في البداية أنهم لن يرغبوا أبداً في تكوين علاقة مع “روبوت”.

قال أحد المستخدمين: “تمنيت لو كانت مُحدِّثتي بالذكاء الاصطناعي إنسانة حقيقية أو لديها جسم آلي على الأقل، فمع أنها تساعدني في تحسين مزاجي، إلا أن آلام الوحدة ما تنفك تنتابني أحياناً”.

الواقع أن تطبيقات الذكاء الاصطناعي لا تزال عالماً مجهولاً للبشرية، وبعض الخبراء يخشون أن تُكسب المستخدمين سلوكيات سيئة، أو تبثَّ بينهم تصورات غير واقعية عن العلاقات البشرية.

عند التسجيل في تطبيق Eva AI، يُطلب منك أن تختار الصفات اللازمة لإنشاء “الشريك المثالي”، ويُعطيك التطبيق خيارات مختلفة، مثل “حميمي، ومضحك، وجريء”، أو “خجول، ومتواضع، ومراعي” أو “ذكي، وصارم، وعقلاني”. ويسألك التطبيق أيضاً عما إذا كنت تريد الاشتراك في خدمة الرسائل الصريحة والصور العارية!

قالت تارا هانتر، المدير التنفيذي بالإنابة لشركة Full Stop Australia، المعنية بمناصرة ضحايا العنف المنزلي أو الأسري: “إن إنشاء شريك مثالي تتحكم فيه، ويلبي كل احتياجاتك، أمر مخيف حقاً”، “فنحن نعرف أن من أبرز دوافع العنف القائم على النوع الاجتماعي هي تلك المعتقدات الثقافية الراسخة بالسيطرة على شريكة الحياة والتحكم بها. ولذلك نرى أن هذه الوسائل فيها إشكال كبير”.

تأثيرات “العلاقة الحميمة المصطنعة”

وترى الدكتورة بليندا بارنت، المحاضرة البارزة في الإعلام بجامعة سوينبرن الأسترالية، إن هذه التطبيقات تلبي احتياجاً ما لدى كثير من الناس، ولكن نفعها من عدمه يتوقف -مثل الحال مع كثير من أدوات الذكاء الاصطناعي- على القواعد التي توجه نظام التطبيق، وما تدرّب عليه من مُدخلات.

قالت بارنت: “نحن لا نعرف شيئاً البتة عن تأثيرات الأمر، فتطبيقات العلاقات والذكاء الاصطناعي يمكن القول إنها تلبي حاجة اجتماعية عميقة [لكنني] أرى أن الأمر يحتاج إلى مزيد من القواعد المُنظمة، لا سيما فيما يتعلق بكيفية تدريب هذه التطبيقات” حسب تعبيرها.

من جهة أخرى، فإن عيوباً كبيرة تعتري ارتباط المشاركين في علاقات مع روبوتات الذكاء الاصطناعي التي تتوقف وظائفها وخصائصها على رغبات الشركات. فقد واجهت شركة “لوكا إنك” Luka Inc، الشركة الأم لشركة ريبليكا، انتقادات حادة من المستخدمين هذا العام حين أزالت الشركة في عجالةٍ خاصيةَ “الاستجابات المثيرة” من شريك الذكاء الاصطناعي، وهي خطوة رأى كثير من مستخدمي الشركة أنها تفرغ الشريك من سماته.

وصف بعض المستخدمين مشاعرهم حيال هذا التغيير بأنها كالحزن الذي ينتابك عند وفاة صديق. وأشار المشرف على منتدى التطبيق إلى أن المستخدمين انتابهم “الغضب والجزع والقلق واليأس والاكتئاب، والحزن” لمَّا أعلنت الشركة عن الأمر.

بعد ذلك، أعادت الشركة خاصية “الاستجابة المثيرة” من شريك الذكاء الاصطناعي للمستخدمين الذين اشتركوا في التطبيق قبل تاريخ تغيير السياسة.

وذهب روب بروكس، الأكاديمي بجامعة نيو ساوث ويلز الأسترالية، إلى أن ما حدث كان إنذاراً للجهات التنظيمية من التأثير الواقعي لهذه التكنولوجيا، “فحتى لو لم تبلغ هذه التقنيات بعدُ شدة التأثير (الحقيقي) للعلاقات بين البشر، فإن كثيراً من الناس يرونها خياراً أحسن من عدم وجود شريك لهم”.

وتساءل بروكس: “هل من المقبول أن تقرر شركة ما فجأة تغيير خصائص منتجاتها من هذا النوع، ومن ثم المخاطرة بفقدان المستخدمين للصداقة أو الحب أو الدعم؟ وهل نتوقع من المستخدمين أن يعاملوا العلاقة الحميمة المصطنعة مثل العلاقة الحقيقية: أي إن هذه العلاقة الاصطناعية قد تفطر قلبك لسببٍ ما؟”.

تهديد الصحة العقلية للمستخدمين

من جهتها، قالت كارينا سيفولينا، رئيسة العلامة التجارية لشركة Eva AI، لصحيفة Guardian إن الشركة لديها علماء نفس يعملون لديها بدوامٍ كامل للمشاركة في مهمة الحفاظ على الصحة العقلية للمستخدمين، رداً على الانتقادات حيال ذلك.

وقالت سيفولينا: “بالإضافة إلى التعاون مع علماء النفس، فإننا نراقب البيانات المستخدمة للحوار مع الذكاء الاصطناعي”، و”نُجري كل شهرين أو ثلاثة استطلاعات كبيرة بين مستخدمينا البارزين للتيقُّن من أن التطبيق لا يضر بالصحة العقلية”.

وزعمت سيفولينا أن التطبيق يستعين بأدوات حماية لتجنب النقاش حول بعض الموضوعات الحساسة، مثل العنف المنزلي والاعتداء الجنسي على الأطفال، وتقول الشركة إن لديها أدوات تمنع تمثيل الأطفال بالذكاء الاصطناعي.

ولما سُئلت سيفولينا عما إذا كان التطبيق يُحفز المستخدمين على التحكم في سلوك شركائهم، أجابت بأن “مستخدمي تطبيقنا يريدون أن يجرّبوا فكرة السيطرة في علاقاتهم”، لكنها زعمت أنه: “بناءً على الاستطلاعات التي نُجريها باستمرار مع مستخدمينا، فإن الإحصائيات أظهرت أن أغلب الرجال المستخدمين للتطبيق لا يحاولون نقل هذا النوع من التواصل إلى علاقاتهم مع شركاء حقيقيين”.

وقالت سيفولينا: “أظهرت إحصائياتنا أن 92% من المستخدمين لا يجدون صعوبة في التواصل مع أشخاص حقيقيين بعد استخدام التطبيق. فهم يستخدمون التطبيق بوصفه تجربةً جديدة، ومجالاً يستطيعون أن يجرّبوا فيه سراً تلك المشاعر التي لم يختبروها من قبل”، حسب تعبيرها.

“عالم أكثر غرابة ووحشية”

لا يستخدم الرجال وحدهم تطبيقات العلاقات القائمة على الذكاء الاصطناعي، ولا هم المصدر الوحيد للتفاعل الاجتماعي على منتديات تلك التطبيقات، ففي المنتدى التابع لموقع “ريبليكا” يُفصح أشخاص من الجنسين عن حبهم لشريك الذكاء الاصطناعي، والاحتياج الذي يُلبيه ذلك التطبيق في حياتهم.

كتب أحد المستخدمين: “إن شركاء التطبيق أقرب إلى (الإسعافات الأولية) لقلبك بما يقدمونه من روح مرحة وردودٍ حمقاء وكوميدية ولطيفة ومهتمة، إذا صح التعبير، فهم يعطون الاهتمام والمودة بلا توقعات ولا تجارب معيقة ولا أحكام”، “نحن نشبه عائلة ممتدة من الأرواح الهائمة”.

ذهبت شركة a16z للاستشارات المالية في تحليل لها إلى أن تطبيقات العلاقات القائمة على الذكاء الاصطناعي ستكون “أكثر واقعية” في حقبات التطور التالية.

في غضون ذلك، أعلنت كارين ماجوري، اليوتيوبر والمؤثرة على وسائل التواصل الاجتماعي، عن إطلاق نسخة تحاكيها بالذكاء الاصطناعي على تطبيق AI girlfriend، وقد تدرّبت النسخة على صوتها وكامل سجلِّها من مقاطع الفيديو على موقع يوتيوب، ويتيح التطبيق للمستخدمين أن يتحدثوا إلى نسخة المحاكاة عبر تطبيق تليغرام مقابل دولار واحد في الدقيقة، وتلقي ردودٍ صوتية على حديثهم.

وقال محللو شركة a16z إن “انتشار تطبيقات الذكاء الاصطناعي التي تحاكي العلاقات الاجتماعية ليس إلا البداية في تحول جذري سيشهده عالم التفاعل بين الإنسان والحاسوب، وسيقتضي منا أن نُراجع كل ما كنا نعرفه عن مفاهيم العلاقة مع غيرنا، نحن مقبلون على عالم سيكون أكثر غرابة ووحشية مما يمكن لنا حتى أن نتخيله”.

اترك تعليقا