الفنّانون يرفعون دعوى لاستخدام عملهم في تدريب الذكاء الاصطناعي الذي يسرق وظائفهم
تقاضي مجموعةٌ من الفنّانين منشئي مولّدات الصور ميدجورني وStable Diffusion، وفقًا لتقارير ذا فيرج، لاستخدامهم فنّهم لتدريب الذكاء الاصطناعي الذي يسرق وظائفهم.
يجعل نموذج Stable Diffusion سرقة أسلوب فنّانٍ معين من أسهل ما يكون. إذ من خلال توجيهٍ بسيطٍ، يمكن للمستخدمين إنشاء أيّ عددٍ من الصور التي تشبه إلى حدٍّ كبيرٍ أيّة لغةٍ بصريةٍ شهيرةٍ مرئيّةٍ تحمل توقيع مبتكرها.
تزعج كثرة منشئي هذه الصور العديد من الفنّانين بشدّةٍ، وهذا أمرٌ غير مفاجئ. فمن وجهة نظرهم، استخدم منشؤو هذه الخوارزميات عملهم الخاص لابتكار نظامٍ يهدّد سبل عيشهم في الوقت الحالي— وهم لا يحصلون على شيءٍ من هذا الابتكار.
ولذلك، يرفع ثلاثة فنّانين الآن دعوى قضائية جماعية مدّعين أنّ أنظمة التعلّم الآلي تنتهك حقوق “ملايين الفنانين” — وهذه دعوى يمكن أن تشكّل سابقةً كاسحةً في هذا المجال الناشئ.
وغرّدت كارلا أورتيز، واحدةٌ من الفنّانين الثلاثة: “عندما تعلّمتُ المزيد عن كيف أن ممارسات نماذج الذكاء الاصطناعي شديدة الاستغلال، أدركتُ أنّه لا توجد سابقةٌ قانونيّةٌ لوضع هذا الحق، دعونا نغيّر ذلك”. وكتب ماثيو باتريك، الكاتب والمحامي، في منشورٍ له على المدوّنة يعلن فيه عن الدعوى: “إنّنا اليوم نتّخذ خطوةً أخرى نحو جعل الذكاء الاصطناعي عادلًا وأخلاقيًّا للجميع”.
وتلك ليست الدعوى القضائيّة الوحيدة التي تُرفع ضدّ الشركات مثل شركة Stability AI. إذ أعلنت شركة Getty Images، التي تقدّم لوسائل الإعلام في مجال الأسهم والصحافة، هذا الأسبوع أنّها تقاضي أيضًا الشركة الناشئة لانتهاكها “حقوق الطبع والنشر في المحتوى الذي تملكه أو تمثّله Getty Images”، وفقًا لما جاء في بيان. وتدّعي Getty Images أنّ الشركة “نسخت وعالجت بنحو غير قانوني ملايين الصور المحميّة بموجب حقوق الطبع والنشر، والبيانات الوصفيّة المرتبطة بها التي تملكها أو تمثّلها Getty Images” دون الحصول على ترخيصٍ، “وعلى حساب منشئي المحتوى”.
ودرّبت منظّمة Stability AI، التي أطلقت نسختها العامّة من نموذج Stable Diffusion في آب/ أغسطس الماضي، خوارزميّاتها على مجموعة بياناتٍ ضخمةٍ تسمّى “LAION -5 B”، والتي تكشط الصور والنصوص من الإنترنت، وهي من إنشاء منظّمة LAION الألمانيّة غير الربحيّة.
ووفقًا للأدوات التي يمكنها مسح مجموعات البيانات هذه لمعرفة إذا ما كان عمل فنّانٍ معيّنٍ قد تمّ كشطه، وجد بعض الفنّانين، مثل الرسّامة إيرين هانسون، أنّ LAION -5 B قد كشطت آلاف الصور من فنّها، كما ذكرت سي إن إن في تشرين الأول/ أكتوبر. بعبارةٍ أخرى، يبدو أنّ هناك أدلّةً دامغةً على أنّ Stable Diffusion يولّد الفن على أساس العمل الفعليّ لفنّانين محدّدين.
قالت هانسون لشبكة سي إن إن أحد الأعمال المسروقة إن “هذا ذو الزهور الأرجوانيّة وغروب الشمس”، في أثناء النظر في جهود جهة البثّ لتوليد الفنّ بالاعتماد على عملها: “تبدو بالتأكيد مثل واحدةٍ من لوحاتي، هل تعلم؟”.
ولكن تمكّنُ شركتي Butterick وGetty Images من الحجاج بنجاحٍ بذكر أنّ نموذج Stable Diffusion ينتهك في الواقع حقوق الطبع والنشر، قد يكون أكثر صعوبةً مما قد يعتقد المرء، والسبب الأوّل لذلك هو جدل منشئي أدوات فنّ الذكاء الاصطناعي في أنّهم محميّون بموجب قوانين الاستخدام العادل في الولايات المتّحدة.
ثمّ هناك حقيقة أنّ منظّمة LAION تدّعي أنّها لم تخزّن صورًا أو نصوصًا محميّةً بحقوق الطبع والنشر قط. فقد ذكر موقع الويب غير الربحي أنّ: “مجموعات بيانات LAION هي ببساطةٍ فهارس للإنترنت، أي قوائم عناوين URL للصور الأصليّة مع نصوص ALT التي عثر عليها مرتبطةً بتلك الصور. وعلى الرغم من تنزيل تضمينات مقاطع الصور وحسابها، لحساب درجات التشابه بين الصور والنصوص، فقد تخلّصنا لاحقًا من كل الصور”.
وعلى الرغم من أنّ عاقبة هذه الدعاوى القضائيّة ليست مؤكّدة، فإنها تشير إلى موجةٍ كبيرةٍ من الإجراءات التي تتخذ ضدّ شركات مثل Stability AI، فالفنّانون في كلّ مكانٍ غاضبون بسبب استخدام عملهم لتدريب خوارزميات الذكاء الاصطناعي دون أن يستأذنوا مسبقًا أو تعويضهم بطريقةٍ عادلة.
ولكن هذا قد يتغيّر قريبًا؛ وفقًا لتقرير سي إن إن، تعمل كلٌّ من منظّمة LAION وشركة Stability AI مع الفنّانين لإيجاد طرائقٍ جديدةٍ لتعويض الفنّانين عن استخدام أعمالهم. وأعلنت شركة Stability AI في كانون الأول/ ديسمبر أنّها ستسمح للفنّانين بإزالة فنّهم من مجموعات بيانات التدريب لإصدارٍ قادمٍ يُطلَق عليه Stable Diffusion 3.0.
ولكن معرفة إن كان هذا كافيًا لتهدئة الفنّانين سيحدده الزمن. فالضرر قد حصل فعلًا بعد كلّ شيءٍ.
- ترجمة: هبة الزبيبي
- تدقيق علمي ولغوي: موسى جعفر
- المصادر: 1