اندريه اونوفرينكو | صور جيتي

تستخدم من قبل جميع أنواع الشركات التعلم الميكانيكي لتحليل رغبات أو كراهية أو وجوه الناس. يسأل بعض الباحثين الآن سؤالًا مختلفًا: كيف نجعل الآلات تنسى؟

جزء جديد من آلة دبلجة علوم الكمبيوتر غير مدروس البحث عن طرق لتحفيز فقدان الذاكرة الانتقائي الذكاء الاصطناعي برمجة. الهدف هو إزالة جميع آثار شخص معين أو نقطة بيانات من نظام التعلم الآلي دون التأثير على أدائه.

في حالة تطبيق هذا المفهوم ، يمكن أن يمنح الأشخاص مزيدًا من التحكم في بياناتهم والقيمة المشتقة منها. على الرغم من أن المستخدمين قد يطلبون بالفعل من بعض الشركات حذف البيانات الشخصية ، إلا أنهم لا يعرفون بشكل عام خطوات تشغيل المعلومات أو تدريبها. ما لا تتعلمه الآلة يجعل من الممكن للشخص استرداد كل من بياناته وربحية الشركة.

في حين أن أي شخص دمر ما يشاركه عبر الإنترنت قد يكون لديه غرائز ، فإن مفهوم النسيان الاصطناعي يتطلب بعض الأفكار الجديدة في علوم الكمبيوتر. تنفق الشركات ملايين الدولارات على خوارزميات التعلم الآلي لتحديد الوجوه أو تقييم المنشورات الاجتماعية ، لأن الخوارزميات يمكنها غالبًا حل مشكلة أسرع بكثير من المبرمجين البشريين. ولكن بمجرد التدريب ، لا يتغير نظام التعلم الآلي بسهولة ، أو حتى يفهم. الطريقة المعتادة للتخلص من تأثير نقطة بيانات معينة هي إعادة بناء نظام من البداية ، وهو برنامج تعليمي مكلف. يقول آرون روث ، الأستاذ في جامعة بنسلفانيا: “يهدف هذا البحث إلى إيجاد أرضية مشتركة”. “هل يمكننا إزالة كل تأثيره عندما يُطلب منك حذف بيانات شخص ما ، ولكن مع تجنب التكلفة الكاملة لإعادة التدريب؟”

READ  أعلنت شركة سوني عن ارتفاع سعر التجزئة لبلاي ستيشن 5

يتم تشجيع العمل الذي لا تتعلمه الآلة جزئيًا من خلال التركيز على الطرق التي يمكن للذكاء الاصطناعي من خلالها تقويض الخصوصية. لطالما كان مراقبو البيانات حول العالم يتمتعون بالقدرة على إجبار الشركات على إزالة المعلومات المضللة. مواطني بعض الأماكن مثل أنا و كاليفورنيا، يحق لك مطالبة الشركة بحذف بياناتها في حالة حدوث تغيير في الرأي بشأن ما كشفت عنه. في الآونة الأخيرة ، صرح المنظمون الأمريكيون والأوروبيون أن مالكي أنظمة الذكاء الاصطناعي يحتاجون أحيانًا إلى المضي قدمًا: حذف نظام مدرب على البيانات الحساسة.

العام الماضي ، مراقب البيانات في المملكة المتحدة حذرت الشركات قد تخضع بعض برامج التعلم الآلي لحقوق الناتج المحلي الإجمالي مثل حذف البيانات لأن نظام الذكاء الاصطناعي قد يحتوي على بيانات شخصية. وقد أظهر باحثو الأمن تُجبر الخوارزميات أحيانًا على تسريب البيانات المهمة المستخدمة في إنشائها. في وقت سابق من هذا العام ، لجنة التجارة الفيدرالية الأمريكية النموذج الأولي للتعرف على الوجه الإلزامي قم بإزالة مجموعة من صور الوجه التي تم الحصول عليها بطريقة غير صحيحة وطرق التعلم الآلي المدربة عليها. أشاد روهيت شوبرا ، مفوض لجنة التجارة الفيدرالية ، بتكتيك الإنفاذ الجديد باعتباره وسيلة لإجبار الشركة على “خسارة ثمار إحباطها” من خلال انتهاك قواعد البيانات.

يرتبط مجال البحث الصغير غير المعروف للآلة ببعض الأسئلة العملية والرياضية التي تثيرها تلك التغييرات التنظيمية. أظهر الباحثون أنه يمكن نسيان خوارزميات التعلم الآلي في ظل ظروف معينة ، لكن هذه التقنية ليست جاهزة بعد في وقت الذروة. يقول روث: “كما هو شائع في مجال الشباب ، نحن نعرف ما تريد هذه المنطقة أن تفعله وكيف نفعل ذلك الآن”.

READ  تم إطلاق Valkyrie's Phantasm Prelude للكمبيوتر الشخصي في 8 مايو في Reitaisai 19

تم اقتراح نهج واعد في عام 2019 قام الباحثون في جامعة تورنتو وجامعة ويسكونسن ماديسون بتقسيم البيانات المصدر لبرنامج التعلم الآلي الجديد إلى عدة أجزاء. ستتم معالجة كل منها على حدة قبل دمج النتائج في نموذج التعلم الآلي النهائي. إذا تم نسيان نقطة بيانات لاحقًا ، فيجب إعادة معالجة جزء فقط من بيانات الإدخال الأصلية. يتضمن هذا النهج بيانات عن عمليات الشراء عبر الإنترنت و معرض يضم أكثر من مليون صورة.

بن وروث وزملاء العمل من هارفارد وستانفورد حديثا أظهر وجود خلل في هذا النهج ، مما يدل على أنه إذا جاءت طلبات الحذف المقدمة بترتيب معين ، إما عن طريق الصدفة أو من جهة فاعلة ضارة ، فسوف ينهار النظام غير المكتسب. كما أظهروا كيفية تقليل المشكلة.

يقول Comet Comet ، الأستاذ بجامعة Waterloo ، والذي يعمل بدون تعلم ، إن المشكلة التي تم من خلالها اختراع المشروع وإصلاحه هي مثال على العديد من الأسئلة المفتوحة حول كيفية الاستغناء عن تعلم آلة بدلاً من الاهتمام بالمختبر. . كان لديه فريق بحث خاص به استكشاف كيف يتم تقليل دقة النظام من خلال التعلم المستمر لنقاط البيانات المتعددة.

تهتم Comet بإيجاد طرق لإثبات أن الشركة قد نسيت حقًا ما تحتاج إلى تعلمه أو التحقق من اللوائح. يقول: “يبدو الأمر وكأنك بعيدًا قليلاً عن الطريق ، ولكن ربما سيكون لديهم في النهاية مدققون لأشياء من هذا القبيل”.

من المرجح أن تنمو الأسباب التنظيمية حيث تستكشف لجنة التجارة الفيدرالية (FTC) وغيرها قوة الخوارزميات لاستكشاف إمكانية التعلم الآلي. يقول روبن بينز ، الأستاذ في جامعة أكسفورد الذي يدرس أمن البيانات ، إن فكرة وجوب أن يكون للأفراد رأي في مصير وثمار بياناتهم قد نمت في السنوات الأخيرة في الولايات المتحدة وأوروبا.

READ  إذا رفضت سياسة الخصوصية ، فلن يقوم WhatsApp بتقييد النشاط

تقوم شركات التكنولوجيا في الواقع بعمل تقني دقيق قبل تنفيذ آلة التعلم الآلي كوسيلة لمنح الأشخاص مزيدًا من التحكم في القاعدة الحسابية لبياناتهم. حتى ذلك الحين ، قد لا تغير التكنولوجيا كثيرًا فيما يتعلق بمخاطر الخصوصية في عصر الذكاء الاصطناعي.

خصوصية مختلفةتوفر تقنية بارعة لوضع حدود رياضية لما يمكن لمنظمة ما تسريبه عن شخص مقارنة مفيدة. تدعم كل من Apple و Google و Microsoft هذه التقنية ، لكن يتم استخدامها بشكل غير متكرر نسبيًا ، ولا تزال مخاطر الخصوصية عديدة.

يقول باينز إنه على الرغم من أنه مفيد حقًا ، “إلا أنه في حالات أخرى يكون العمل أكثر لإظهار أن الشركة تبتكرها”. إنه يشك في أن انعدام الأمن الآلي قد يكون مرادفًا ، مما يثبت البراعة التكنولوجية بدلاً من تحول كبير في أمن البيانات. حتى عندما تتعلم الآلات أن تنسى ، يحتاج المستخدمون إلى تذكر توخي الحذر مع من يشاركون البيانات.

ظهرت هذه القصة لأول مرة wired.com.

LEAVE A REPLY

Please enter your comment!
Please enter your name here