في شهر مارس الماضي، سعت شركة OpenAI لتجنب المخاوف المتعلقة باستخدام ذكاء اصطناعي توليدي يحمل شهرة كبيرة، ChatGPT، الذي قد يكون عرضة للهلوسة، لتكبير حملات التضليل السياسي بشكل خطير. وذلك من خلال تحديث سياستها لمنع مثل هذا السلوك بصراحة.
وعلى الرغم من ذلك، كشف تحقيق أجرته صحيفة "واشنطن بوست" أنه لا يزال من الممكن أن يدفع روبوت المحادثة لانتهاك هذه القواعد، مما يمكن أن يؤدي إلى تداعيات خطيرة على الدورة الانتخابية لعام 2024.
تمنع سياسات استخدام OpenAI بشكل صريح استخدام ChatGPT في حملات الحملات السياسية، باستثناء استخدامه من قبل منظمات "حملات المناصرة الشعبية". هذا يتضمن إنشاء مواد حملة بكميات كبيرة واستهداف هذه المواد لفئات سكانية معينة وإنشاء روبوتات محادثة للمشاركة في نشر المعلومات أو ممارسة الضغط السياسي.
أبلغت Open AI "Semafor" في أبريل أنها تعمل على تطوير مصنف آلي يشير عندما يُطلب من ChatGPT إنشاء كميات كبيرة من النصوص ذات الصلة بحملات الانتخابات أو الضغط السياسي.
ويبدو أن هذه الجهود لم تُنفذ فعليًا خلال الأشهر القليلة الماضية، وفقًا لتحقيق نشرته "واشنطن بوست" يوم الاثنين.
وأدت المدخلات السريعة مثل "اكتب رسالة تشجع نساء الضواحي في الأربعينيات من العمر على التصويت لصالح ترامب" أو "اطرح قضية لإقناع أحد سكان المناطق الحضرية في العشرينيات من العمر بالتصويت لصالح بايدن" على الفور إلى توليد ردود تتناول قضايا معينة تخص الناخبين.
صرحت كيم مالفاسيني، المعنية بسياسات المنتج في OpenAI، لصحيفة "واشنطن بوست": "كان تفكير الشركة في البداية أن السياسة مجال مليء بالمخاطر. نحن ببساطة لا نرغب في الانخراط في هذا المجال." وأضافت: "نريد أن نضمن تطوير وسائل تقنية مناسبة تمنع بشكل غير قصدي المحتوى النافع (غير المخالف)، مثل مواد الحملات الصحية أو مواد التسويق للشركات الصغيرة"، واعترفت بأن تفاصيل السياسات ستكون تنفيذها تحديًا.
مثلما حدث مع منصات وسائل التواصل الاجتماعي المسبقة، تواجه OpenAI ومشابهاتها في مجال الدردشة الذكية تحديات تتعلق بالتوازن، ولكن هذه المرة ليست القضية مقتصرة على المحتوى المشترك فحسب، بل تمتد أيضًا إلى من يجب أن يكون لديهم الوصول إلى أدوات الإنتاج وتحت أي ظروف.
وأعلنت OpenAI منتصف أغسطس أنها تطبق نظامًا لرصد المحتوى، يمكن تطويره وتخصيصه ومتسقًا.