التاريخ : 2023-08-01
مدة القراءة : 2 دقائق
إن كنت مُصممًا، أو مصورًا، أو ممثلًا، فبالتأكيد لا تودّ من الذكاء الاصطناعي أن يتدرب عليك، وينسخ أعمالك وفنّك دون مقابل أو تعويض، أو حتى إن كنت شخصًا عاديًا لا تحمل من الشهرة شيء، ولكنك تظهر في صور تنشرها للعامة، لن تتمنى أن يبتكر الذكاء الاصطناعي تصميمًا أو شكلًا لك وأنت تفعل أمر غريب أو بحالة يُرثى لها "فوتوشوبيًا".
صحيح أن "مُولِّدات الصور القائمة على الذكاء الاصطناعي" ممتعة للهو بها والاستكشاف، لكن مشكلتها بكل بساطة تكمن في أنها "مولّده" أي تعمل بصورة توليدية، فتستقبل المعلومات والصور والمحتويات من الإنترنت، ثم تُنتج محتوى متأثر بهذه المعلومات والمحتويات.
طوَّر "مختبر علوم الحاسوب والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا (CSAIL)" أداةً جديدة تُسمى "PhotoGuard"؛ لحماية الصور من التعديلات الضارة، حسب إفادة موقع إنغادجيت. آلية عمل النظام هي إن أصغر وحدة معلومات في الصورة تُسمى بيكسل، وأداة "PhotoGuard" تغير بعض وحدات البيكسل بطريقة لا يمكن للبشر إدراكها، ولكنّها تُشتت الذكاء الاصطناعي، وتعمل على طريقتين: - هجوم التشفير (Encoder attack): يجعل الذكاء الاصطناعي غير قادر على فهم محتوى الصورة الظاهرة. - هجوم الانتشار (Diffusion attack): يجعل الذكاء الاصطناعي يرى الصورة كمكوّن آخر، مما يجعل جميع التعديلات غير واقعية وغير قابلة للاستخدام. إن أثارك الفضول، ألقِ نظرة سريعة هُنا.
البشر في تنافس مع الذكاء الاصطناعي، كل يوم يغلب أحدهما الآخر، وحتى الأداة "PhotoGuard" غير مضمونة ١٠٠٪ ، مع ذلك بإمكان الشركات المصنعة لنماذج الذكاء الاصطناعي توفير واجهات برمجة التطبيقات (APIs) لحماية صور الأشخاص.
*بالمناسبة: إذا كنت ترغب في تجربة "PhotoGuard"، اضغط هنا للحصول على الشفرة البرمجية "الكود".