يقول موظفو Google إن Bard AI “أسوأ من عديم الفائدة” ، ويتم تجاهل المخاوف الأخلاقية – Ars Technica

من الخارج ، يبدو Google Bart وكأنه منتج سريع يحاول التنافس مع ChatGPT ، ويشارك بعض موظفي Google هذه المشاعر. تقرير جديد من بلومبرج أدت المقابلات التي أجريت مع 18 موظفًا حاليًّا وسابقًا إلى قيام Google بإخراج Bard ، مشيرًا إلى التعليقات السلبية والمخاوف بشأن فرق أخلاقيات الذكاء الاصطناعي “المحبطة والمحبطة”.

وفقًا للتقرير ، طُلب من موظفي Google اختبار إصدار Bard المسبق للحصول على تعليقاتهم ، والتي تم تجاهلها إلى حد كبير حتى يمكن إطلاق Bard بسرعة. ووصفت المناقشات الداخلية التي شاهدتها بلومبرج ، بارد بأنه “مروع” و “كاذب مرضي”. عندما سئل عن كيفية هبوط الطائرة ، أعطى تعليمات غير صحيحة أدت إلى وقوع حادث. طلب موظف تعليمات جهاز التنفس تحت الماء وقيل له إنها قد “تؤدي إلى إصابة خطيرة أو الوفاة”. غطى أحد الموظفين مشاكل بارد في منشور في فبراير بعنوان “بارد أسوأ من عديم الفائدة: من فضلك لا تبدأ.” تم إطلاق Bart في مارس.

هناك العديد من الأشياء التي يمكنك قولها حول ChatGPT من OpenAI ، والتي تطاردها شركة Google المنافسة لمنظمة العفو الدولية. كلاهما يمكن أن يعطي معلومات متحيزة أو غير دقيقة ويهلوس بإجابات خاطئة. تتخلف Google كثيرًا عن ChatGPT ، وتشعر الشركة بالقلق من قدرة ChatGPT على الإجابة عن الأسئلة التي قد يكتبها الأشخاص في بحث Google. تعرض OpenAI ، مبتكر ChatGPT ، لانتقادات لاتباعه نهجًا متساهلًا تجاه أمن الذكاء الاصطناعي وأخلاقياته. الآن تجد Google نفسها في موقف صعب. إذا كان الشاغل الوحيد للشركة هو استرضاء سوق الأسهم واللحاق ببرنامج ChatGPT ، فلا يمكنها فعل ذلك إذا تباطأت بالنظر إلى القضايا الأخلاقية.

READ  تم الإعلان عن Persona 5: Phantom X لنظامي التشغيل iOS و Android

قالت ميريديث ويتاكر ، مديرة تنفيذية سابقة في شركة Google ورئيسة مؤسسة Signal Foundation ، لبلومبرج إن “أخلاقيات الذكاء الاصطناعي قد احتلت المرتبة الخلفية” في Google وأنه “إذا لم يكن للأخلاقيات الأسبقية على الربح والنمو ، فلن تنجح في النهاية”. تم فصل العديد من قادة أخلاقيات الذكاء الاصطناعي في Google أو تركوا الشركة في السنوات الأخيرة. تقول بلومبرج اليوم أن مراجعات أخلاقيات الذكاء الاصطناعي في Google “طوعية بالكامل تقريبًا”.

على الرغم من وجود شيء يمكنك القيام به في Google لإبطاء الإصدارات بسبب مشكلات أخلاقية ، إلا أنه لن يكون مفيدًا لحياتك. يقول التقرير: “قال أحد الموظفين السابقين إنه طُلب منهم العمل بأمانة على التعلم الآلي ، وكانوا يثبطون بشكل روتيني – لدرجة أن ذلك أثر على مراجعات أدائهم. واحتج المدراء على أن ذلك يتعارض مع” عملهم الحقيقي “.

LEAVE A REPLY

Please enter your comment!
Please enter your name here