لماذا يجب أن نخشى الذكاء الاصطناعي؟

الجزيرة نت 2018-11-20 20:06 goo.gl/V5iW4i15
لماذا يجب أن نخشى الذكاء الاصطناعي

قال بيرنار سار الكاتب والمستشار في مجال الأعمال والتكنولوجيا الإستراتيجية للحكومات والشركات -في تقرير بمجلة فوربس الأميركية- إن "بعض الشخصيات البارزة، على غرار ستيفن هوكينغ وإيلون مسك، أشاروا إلى أن الذكاء الاصطناعي قد يكون خطيراً للغاية على البشر".

وحسب التقرير، فإن إيلون مسك -رئيس شركة تسلا للسيارات الكهربائية- قارن في أحد حواراته بين خطر الذكاء الاصطناعي والخطر الذي يمثله زعيم كوريا الشمالية على العالم. في إشارة إلى امتلاك ذلك البلد السلاح النووي.

وفي ظل التطورات التكنولوجية الأخيرة، التي أكدت أنه من الممكن اختراع آلات فائقة الذكاء في وقت أقرب بكثير مما كنا نعتقد، يبدو أن الوقت قد حان لتحديد الأخطار التي يشكلها الذكاء الاصطناعي على البشر.

وعلى الرغم من أن هذه التكنولوجيا تستخدم -في أغلب جوانبها- لخدمة الجنس البشري، فإنها قد تخدم مصالح معاكسة في حال وقوعها في الأيدي الخطأ.

كيف يمكن أن يكون الذكاء الاصطناعي خطيراً؟

ذكر الكاتب أنه بعيدا عن السعي المتواصل لتطوير آلات فائقة الذكاء، يمكن للذكاء الاصطناعي في شكله الحالي أن يشكل خطرا علينا.

الأسلحة المستقلة
ومن المرجح أن تستبدل الدول الكبرى سباق التسلح النووي بسباق تطوير الأسلحة المستقلة، خاصة أن الرئيس الروسي فلاديمير بوتين صرح بأن "الدولة التي ستتصدر العالم في مجال الذكاء الاصطناعي ستصبح حاكما للعالم".

القلق الأكبر يبقى في وقوعها بين أيدي أفراد أو حكومة لا تقدر قيمة الحياة البشرية، كما أنه بمجرد نشر هذه الأسلحة الفتاكة من المحتمل أن يصعب تفكيكها أو مكافحتها.

التلاعب بالمجتمع
شبكات التواصل الاجتماعي تعد فعالة جدا في ما يتعلق بالتسويق المستهدف، فالبيانات التي تجمعها عنا من خلال هذه الشبكات تساعد في التعرف علينا ومعرفة توجهاتنا الفكرية.

وما زالت تفاعلات قضية كامبردج أناليتيكا والشركات المشابهة لها حاضرة، والتي استخدمت بيانات لنحو خمسين مليون مستخدم لموقع فيسبوك، لمحاولة التأثير على نتائج الانتخابات الرئاسية الأميركية لسنة 2016.

وفي حال ثبتت هذه الاتهامات، ستسلط الضوء على دور الذكاء الاصطناعي في التلاعب بالمجتمع.

غزو الخصوصية والتصنيف الاجتماعي
أصبح من الممكن اليوم تتبع وتحليل تحركات أي شخص على الإنترنت؛ فالكاميرات موجودة في كل مكان تقريبا، كما تساعد خوارزميات التعرف على الوجه على تحديد هويتك.

وستساعد هذه التقنيات في تعزيز نظام الائتمان الاجتماعي في الصين، الذي من المرجح أن يتمثل في تقييم سلوك كل مواطن ومنحه درجة شخصية على أساس سلوكه.

وإذا اتخذت السلطات الصينية قراراتها استنادًا إلى تلك المعلومات، فإن هذا الأمر لن يكون مجرد غزو للخصوصية فحسب، بل سيتحول بسرعة إلى اضطهاد اجتماعي أيضا.

نحن والآلات
يسعى المطورون إلى أن تكون الآلات التي تعمل بالذكاء الاصطناعي على مستوى عال من الكفاءة والفعالية. ولكن، إذا لم توضع أهداف واضحة لهذه الآلات، تتماشى مع أهدافنا كبشر، فقد تشكل هذه الآلات خطرا علينا.

وذكر الكاتب أنه نظرًا لقدرة الأجهزة على جمع معلومات متعلقة بك، فإنه من الممكن أن تستخدم هذه المعلومات ضدك.

فمثلا يمكن لشركة تأمين رفض مطلب التأمين استنادًا إلى عدد المرات التي التقطت فيها الكاميرات صورا تؤكد استعمالك لهاتفك أثناء القيادة.

كما قد يمتنع صاحب العمل عن توظيفك في شركته بعد النظر إلى درجة الائتمان الاجتماعي الخاصة بك.

رابط المصدر

أحدث المواضيع من موقع الجزيرة نت