تكنولوجيا

دون إذن مُسبق.. “لينكد إن” تستغل بيانات مستخدميها لتدريب الذكاء الاصطناعي

تعتبر منصة “لينكد إن” المملوكة لشركة “مايكروسوفت” المنصة الاجتماعية المهنية الأشهر، إذ تضم أكثر من مليار عضو في أكثر من 200 بلد وإقليم في جميع أنحاء العالم، وهي مقصد أي شخص يرغب في التعريف عن نفسه من الجانب المهني، وإبراز خبراته في مجال تخصصه.

ويعتمد المستخدمون على منصة “لينكد إن” بوصفها أداة استثنائية لبناء شبكة علاقات مهنية، والبحث عن وظائف في مجال تخصصهم، والتفاعل مع زملائهم في العمل، والاستفادة من المجموعات المتخصصة التي تنشر أدوات تساعد مستخدمي المنصة على تطوير خبراتهم العملية.

ولكن لا تبدو هذه الاستفادة من طرف واحد، فالمنصة أيضا تريد الاستفادة من المستخدمين، إذ أضافت الشبكة المهنية الكبرى “لينكد إن” في سبتمبر/أيلول الماضي إعدادا جديدا لخصوصية البيانات يسمى “بيانات تعزيز الذكاء الاصطناعي التوليدي” يسمح بتوظيف بيانات المستخدمين افتراضيا لتدريب نماذج الذكاء الاصطناعي.

هل سبق تدريب الذكاء الاصطناعي التوليدي تحديث شروط الخدمة؟

وفقا لتقرير نشره موقع “تيك كرانش”، يتمتع مستخدمو “لينكد إن” في الولايات المتحدة، بعكس الاتحاد الأوروبي، أو المنطقة الاقتصادية الأوروبية، أو سويسرا بخيار إلغاء الاشتراك في شاشة الإعدادات الخاصة بهم، إذ يتم الإفصاح عن أن “لينكد إن” تقوم بجمع البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي لإنشاء المحتوى، ويعود هذا على الأرجح لقواعد خصوصية البيانات في تلك المناطق.

بالطبع هذا الخيار ليس جديدا، ولكن تقريرا صدر عن موقع “ميديا 404” أفاد بأن بعض مستخدمي “لينكد إن” قد تفاجؤوا بظهور إعداد جديد يكشف أن المنصة تستخدم بياناتهم لتدريب نماذج الذكاء الاصطناعي المولد من دون موافقة مسبقة، حيث ذكر التقرير أن “لينكد إن” لم تقم بتحديث سياسة الخصوصية الخاصة بها لتعكس استخدام البيانات قبل بداية عملية التدريب.

وقد تمّ تحديث شروط الخدمة الآن، لكن عادة ما يحدث ذلك قبل فترة طويلة من تغيير كبير مثل استخدام بيانات المستخدمين لغرض جديد، كتدريب نماذج الذكاء الاصطناعي التوليدي، الأمر الذي يمنح المستخدمين خيارا لإجراء تغييرات على حساباتهم، أو مغادرة المنصة إذا لم تعجبهم التغييرات، وهو ما لم يحدث هذه المرة.

“لينكد إن” ستحتفظ بعلامتها المميزة واستقلالها (الجزيرة)

ما النماذج التي تقوم “لينكد إن” بتدريبها؟

تقوم “لينكد إن” بتدريب نماذج تشمل اقتراحات الكتابة وتوصيات المنشورات، وأشارت أيضا إلى أن نماذج الذكاء الاصطناعي التوليدية على منصتها قد يتم تدريبها بواسطة مزوّد آخر مثل الشركة الأم لها “مايكروسوفت”.

وقالت: “كما هي الحال مع معظم الميزات على (لينكد إن)، عندما تتفاعل مع منصتنا يتم جمع واستخدام أو معالجة البيانات حول استخدامك للمنصة، بما في ذلك البيانات الشخصية”.

وأضافت: “قد تشمل هذه البيانات استخدامك للذكاء الاصطناعي التوليدي، الذي يتم استخدامه لإنشاء المحتوى، أو نماذج الذكاء الاصطناعي الأخرى، منشوراتك ومقالاتك، ومدى تكرار استخدامك للينكد إن، وتفضيلاتك اللغوية، وأي ملاحظات قد تكون قدمتها لفرقنا. نستخدم هذه البيانات بما يتماشى مع سياسة الخصوصية الخاصة بنا لتحسين وتطوير خدمات لينكد إن”.

 

وأكد غريغ سنابر المدير التنفيذي للتواصل المؤسسي في “لينكد إن” أن المنصة تستخدم بيانات الأشخاص لتدريب الذكاء الاصطناعي من أجل مساعدة الناس في جميع أنحاء العالم على خلق فرص اقتصادية من خلال تطوير أدوات تساعدهم في العثور على وظائف جديدة وتعلم مهارات جديدة، وقال: “إذا نجحنا في ذلك يمكننا مساعدة كثير من الناس على نطاق واسع”.

وكانت “لينكد إن” قد نشرت يوم 18 سبتمبر/أيلول الماضي مدونة على موقعها الرسمي، وضحت فيها أنه في اتفاقية المستخدم، ستتضمن التحديثات أحكاما جديدة تتعلق بالميزات الخاصة بالذكاء الاصطناعي التوليدي التي تقدمها، وأن هذه التحديثات ستدخل حيز التنفيذ في نوفمبر/تشرين الثاني لهذا العام.

وفي المدونة نفسها، قال بلاك لاويت نائب الرئيس والمستشار العام في المنصة: “في سياسة الخصوصية لدينا، أضفنا لغة لتوضيح كيفية استخدامنا للمعلومات التي تشاركها معنا لتطوير المنتجات والخدمات الخاصة بلينكد إن وشركاتها التابعة، بما في ذلك من خلال تدريب نماذج الذكاء الاصطناعي المستخدمة في توليد المحتوى (الذكاء الاصطناعي التوليدي) ومن خلال تدابير الأمان والسلامة”.

انتقادات واسعة

واجهت المنصة عدة انتقادات إثر التحديثات الجديدة، إذ اعتبر كثيرون أن الشركة لم تكن شفافة وواضحة بشأن كيفية جمع واستخدام البيانات، حيث دعت منظمة “مجموعة الحقوق المفتوحة” غير الربحية مكتب مفوض المعلومات -الجهة المنظمة المستقلة في المملكة المتحدة المعنية بحقوق حماية البيانات- إلى التحقيق في “لينكد إن” وغيرها من الشبكات الاجتماعية التي تعتمد على بيانات المستخدمين بشكل افتراضي.

وقال المسؤول القانوني والسياسي في المنظمة ماريانو ديلي سانتي في بيان: “لينكد إن هي أحدث شبكة وسائط اجتماعية تُكتشفُ أنها تعالج بياناتنا دون طلب الموافقة”.

وأضاف: “يثبت نموذج الانسحاب مرة أخرى أنه غير كافٍ تماما لحماية حقوقنا. لا يمكن توقع أن يراقب الجمهور ويتعقب كل شركة عبر الإنترنت تقرر استخدام بياناتنا لتجريب الذكاء الاصطناعي. إن الموافقة المسبقة ليست فقط مطلبا قانونيا، بل هي أيضا متطلب منطقي”.

وذكرت صحيفة واشنطن بوست -في تقرير لها- أنّ “لينكد إن” منحت نفسها بشكل افتراضي إذنا لاستخدام المعلومات التي شاركها مستخدمو المنصة لتدريب نماذج الذكاء الاصطناعي الخاصة بها، وما لم يقم المستخدم بإيقاف هذا الإعداد الجديد، فإن المنصة تعتبر كل بيانات المستخدمين متاحة، كالمنشورات، والمقالات، وحتى الفيديوهات الخاصة بهم، وهو ما فاجأ كثيرين.

LinkedIn - - ANKARA, TURKEY - MARCH 3: In this photo illustration a mobile phone screen displays LinkedIn logo in Ankara, Turkey on March 3, 2020.
“لينكد إن” أخفقت في الوفاء بالمعايير المطلوبة عند الحصول على موافقات صحيحة من المستخدمين (مواقع التواصل)

وفي التقرير نفسه، قالت واشنطن بوست: “من الواضح أن (لينكد إن) ترغب بشدة في أن تؤدي ميزاتها الذكية إلى حصولك على وظيفة تقدر فيها جودة عملك بشكل عادل، لكن من الصعب التفكير في الأمر من منظور آخر أيضا، هل تقدر (لينكد إن) العمل الذي ساهمت من خلاله في تحسين ذكائها الاصطناعي بشكل عادل؟ عمل لم تتلق عنه تعويضا مباشرا، أو ربما لا تكون قد أخبرت أنهم يستخدمونه”.

قد يبدو هذا التبادل عادلا بالنسبة للبعض، بينما يشعر آخرون بعدم الارتياح تجاه كيفية تعامل “لينكد إن” مع الوضع، إذ قال المحامي في مؤسسة الحدود الإلكترونية ماريو تروخيو إن الأدوات الصعبة للاختيار غير المتاح نادرا ما تكون وسيلة فعالة للسماح للمستخدمين بممارسة حقوقهم في الخصوصية، وإن الشركات إذا كانت ترغب حقا في منح المستخدمين خيارا، فيجب عليها تقديم خيار واضح للموافقة “نعم” أو “لا”.

وليست “لينكد إن” وحدها من تحول البيانات العامة للمستخدمين إلى مواد تدريب للذكاء الاصطناعي، إذ إن “شات جي بي تي” من “أوبن إيه آي” و”جيميناي” من غوغل تستخدم محادثات المستخدمين لتحسين أداء روبوتات الدردشة بمرور الوقت، ويتطلب من المستخدم اختيار الانسحاب بدلا من الاشتراك.

وخلال جلسة استماع حدثت مؤخرا في البرلمان الأسترالي، أكدت مديرة سياسة الخصوصية في شركة “ميتا” ميليندا كليباو أن الشركة كانت تقوم بجمع الصور والنصوص العامة من فيسبوك وإنستغرام لتدريب نماذج الذكاء الاصطناعي الخاصة بها لسنوات أكثر مما كان متوقعا.

ورغم تأكيدها أنها كانت تبلغ المستخدمين عن سياسة بيانات الذكاء الاصطناعي الخاصة بها من خلال رسائل البريد الإلكتروني، والرسائل النصية، ولافتات على موقعها الإلكتروني، فإن “لينكد إن” لا تزال تفاجئ عديدا من المستخدمين، ومن خلال تحديثاتها الجديدة فهي تعطي المستخدمين وقتا أقل للاستجابة مما قدمته حتى شركتها الأم مايكروسوفت، حسب ما أفادت به واشنطن بوست.

ففي أغسطس/آب الماضي، أعلنت مايكروسوفت أنها ستبدأ في تدريب أداة مساعد الذكاء الاصطناعي الخاصة بها بناء على التفاعلات التي أجراها الأشخاص معها، بالإضافة إلى البيانات التي تم جمعها من استخدام محرك بحث “بينغ” ومصدر الأخبار “مايكروسوفت ستارت”.

لكنها وعلى عكس “لينكد إن” قالت إنها ستبلغ المستخدمين بخيار الانسحاب من جمع البيانات في أكتوبر/تشرين الأول، وإنها ستبدأ فقط في تدريب نماذج الذكاء الاصطناعي الخاصة بها بعد 15 يوما من توفر الخيار.

وقالت واشنطن بوست “لماذا لم تقم لينكد إن بإطلاق مماثل بمعلومات مستنيرة؟”. كما أشارت أن سنابر لم يرغب في الإفصاح عما إذا كان قد تم النظر في ذلك، واكتفى بقوله إنهم -يعني الشركة- يركزون على إمكانية تحسين ذلك في المرة القادمة.

This Tuesday, May 7, 2013, photo, shows LinkedIn's Mountain View, Calif., headquarters. LinkedIn and Facebook celebrate the anniversaries of their IPOs just a few days apart this week. But the companies' experiences as publicly traded entities couldn't be more different. LinkedIn promotes its service as a stepping stone to a more enriching career. As it turns out, the professional networking company's IPO was a great place to start a rewarding investment portfolio, too. LinkedIn's stock has nearly quadrupled in value from its $45 IPO price two years ago.
مستخدمو “لينكد إن” في الولايات المتحدة، بعكس الاتحاد الأوروبي، أو المنطقة الاقتصادية الأوروبية، أو سويسرا يتمتعون بخيار إلغاء الاشتراك في شاشة الإعدادات الخاصة بهم (أسوشيتد برس)

تاريخ “لينكد إن” في العقوبات

هذه ليست المرة الأولى التي تقوم فيها منصة “لينكد إن” بإثارة الشكوك والتساؤلات حول كيفية تعاملها مع إدارة بيانات المستخدمين، وقد تم تقديم شكاوى ضد الشركة بسبب انتهاكها لقانون حماية البيانات العامة.

ففي سنة 2018 قدمت منظمة الحقوق الرقمية الفرنسية “لاكوادراتور دو نت” شكوى ضد “لينكد إن” بسبب انتهاكها لقانون حماية البيانات، وكانت هيئة حماية البيانات الفرنسية قد أحالت القضية إلى أيرلندا حيث يقع المقر الرئيسي الأوروبي للمنصة.

لم تنته هذه القضية بالرغم من مرور 6 سنوات عليها، إذ فرضت لجنة حماية البيانات في أيرلندا يوم 24 أكتوبر/تشرين الأول على “لينكد إن” غرامة مالية تقدر بـ310 ملايين يورو، وذلك بسبب عدم إبلاغ المستخدمين بكيفية استخدام بياناتهم في التحليل السلوكي والإعلانات المستهدفة، وهو ما يشكل انتهاكا للائحة الاتحاد الأوروبي العامة لحماية البيانات.

وحسب مفوضية حماية البيانات، فشلت “لينكد إن” في الوفاء بالمعايير المطلوبة عند الحصول على موافقات صحيحة من المستخدمين، ووجدت الجهة الرقابية أن مصالح عملاق وسائل التواصل الاجتماعي تم التغلب عليها من قبل مصالح وحقوق وحريات الأفراد المعنيين بالبيانات.

بالإضافة إلى الغرامة والتي تعد واحدة من أكبر الغرامات في تاريخ اللائحة العامة لحماية البيانات، تلقت “لينكد إن” توبيخا رسميا، إذ يجب عليها ضمان الامتثال الكامل لقوانين اللائحة حسب ما ذكره موقع “أورو نيوز” الأوروبي.

من جهتها، صرحت “لينكد إن” للموقع نفسه بأن الشركة كانت ملتزمة باللائحة العامة لحماية البيانات، وأنها تعمل لضمان توافق ممارساتها الإعلانية مع قرار لجنة حماية البيانات الأيرلندية قبل الموعد النهائي الذي حددته.

كيف تنسحب من تدريب الذكاء الاصطناعي على “لينكد إن”؟

إذا كنت لا ترغب في أن تستخدم “لينكد إن” بياناتك الخاصة لتدريب الذكاء الاصطناعي التوليدي الخاص بها لإنشاء محتوى باستخدام منشوراتك، إليك كيفية إيقاف التشغيل:

  • قم بتسجيل الدخول إلى حساب “لينكد إن” الخاص بك.
  • انقر على صورة ملفك الشخصي في شريط القوائم العلوي، ثم اختر “الإعدادات والخصوصية” (Setting and Privacy) في القائمة المنسدلة.
  • اختر خصوصية البيانات (Data privacy) من القائمة الموجودة على الجانب الأيسر.
  • حدد خيار “البيانات لتحسين الذكاء الاصطناعي التوليدي” (Data for Generative AI Improvement) في أسفل قسم “كيف تستخدم لينكد إن بياناتك” (How LinkedIn uses your data).
  • قم بإيقاف تشغيل خيار “استخدم بياناتي لتدريب نماذج إنشاء المحتوى بالذكاء الاصطناعي” (Use my data for training content creation AI models).

من الضروري أن يجد المستخدمون ميزانا عادلا يحترم الاستفادة من التطورات التكنولوجية من جهة، وحماية بياناتهم الشخصية من جهة أخرى، خاصة مع تسارع وتيرة التقدم في تكنولوجيا الذكاء الاصطناعي.

ومن حقهم أيضا أن يبقوا على دراية بحقوقهم وحريتهم في الاختيار، ومثلما تسعى المنصات الرقمية إلى تحسين خدماتها، فيجب أن تسعى لجعل الشفافية واحترام خصوصية المستخدمين على رأس أولوياتها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى