التاريخ : 2021-04-18
مدة القراءة : 2 دقائق
قد يشكل الذكاء الاصطناعي خطراً على وظائف الناس وحياتهم وخصوصيتهم، ولكن لن يحصل هذا بدون مواجهة من البشر (الأوروبيين بالذات).
الاتحاد الأوروبي بصدد إعلان قرارات لمنع جزئي لبعض تطبيقات لذكاء الاصطناعي، من المتوقع الإعلان عنها رسمياً يوم ٢١ أبريل.
أوروبا ستركّز على تطبيق عقوبات على تطبيقات الذكاء الاصطناعي "عالية الخطورة"، وقد تصل العقوبات إلى ٢٠ مليون يورو أو ٤٪ من دخل الشركة التي لا تلتزم بالقوانين الجديدة.
"عالية الخطورة" تعني أنها تراقب بيانات مستخدمين إلى درجة تهدّد سلامة أو خصوصية الناس. أما الذكاء الاصطناعي الذي يستخدم في الصناعة وتوفير الطاقة فعلى الأرجح ألّا يتأثر.
القوانين الجديدة تتضمن: - منع المراقبة: لأنظمة الذكاء الاصطناعي التي تراقب الجميع بدون تفرقة. - منع التقييم الاجتماعي: وهي الأنظمة التي تقيّم المستخدمين بمتابعة عادات الأفراد لتحديد مقدار "الثقة" فيهم (Social Credit). - مكافحة التحيّز: بإضافة ضرورة وجود مراقبة بشرية لما يصدره الذكاء الاصطناعي من نتائج أثناء تدريبه. - إشعارات الذكاء الاصطناعي: أي وجوب إعلام الأشخاص في حال أن نظام ذكاء اصطناعي يتعامل معهم.
يقول الخبراء أن القوانين الجديدة عائمة، وتوجد الكثير من الطرق للالتفاف عليها.
هذا الخبر الأوروبي يحصل في الوقت الذي وصل الاستثمار في الذكاء الاصطناعي في أمريكا إلى مراحل غير مسبوقة: - هيئة أمن الذكاء الاصطناعي في أمريكا طالبت بصرف ٣٢ مليار دولار سنوياً على أبحاث الذكاء الاصطناعي غير العسكرية. - وحتى الآن في ٢٠٢١ وصل عدد الاستثمارات الجريئة في الذكاء الاصطناعي في أمريكا إلى ٤٤٢ صفقة بمجموع ١١,٦ مليار دولار.
الصورة الأكبر: هذه القوانين الأوروبية تبدو مصمّمة للشركات الأمريكية الكبرى، ومن المتوقع ألا تتقبل الشركات هذه القوانين بصدرٍ رحب.