7 مرات كان التعلم الآلي خاطئًا

7 مرات كان التعلم الآلي خاطئًا
القراء مثلك يساعدون في دعم MUO. عند إجراء عملية شراء باستخدام الروابط الموجودة على موقعنا ، فقد نربح عمولة تابعة. اقرأ أكثر.

يعد التعلم الآلي طريقة رائعة لإنشاء ذكاء اصطناعي قوي ويتكيف مع بيانات التدريب الخاصة به. لكن في بعض الأحيان ، يمكن أن تتسبب هذه البيانات في حدوث مشكلات. في أحيان أخرى ، الطريقة التي يستخدم بها الناس أدوات الذكاء الاصطناعي هي المشكلة.





فيما يلي نظرة على بعض الحوادث البارزة حيث أدى التعلم الآلي إلى نتائج إشكالية.





اجعل فيديو اليوم قم بالتمرير للمتابعة مع المحتوى

1. نتائج البحث عن الصور في Google مؤسفة

  نتائج البحث في google-image-search-results

لقد جعل بحث Google التنقل عبر الويب أسهل كثيرًا. تأخذ خوارزمية المحرك في الاعتبار مجموعة متنوعة من الأشياء عند إنتاج النتائج. لكن الخوارزمية تتعلم أيضًا من حركة مرور المستخدم ، مما قد يتسبب في مشاكل في جودة نتائج البحث.





لا يوجد مكان يتجلى فيه هذا الأمر أكثر من نتائج الصور. نظرًا لأن الصفحات التي تتلقى عددًا كبيرًا من الزيارات تزداد احتمالية عرض صورها ، فإن القصص التي تجذب أعدادًا كبيرة من المستخدمين ، بما في ذلك clickbait ، يمكن أن تحظى بالأولوية.

على سبيل المثال ، أثارت نتائج البحث عن الصور لـ 'المخيمات العشوائية في جنوب إفريقيا' جدلاً عندما تم اكتشاف أنها تحتوي في الغالب على البيض من جنوب إفريقيا. هذا على الرغم من الإحصاءات التي تظهر أن الغالبية العظمى من أولئك الذين يعيشون في مساكن غير رسمية هم من السود في جنوب إفريقيا.



تعني العوامل المستخدمة في خوارزمية Google أيضًا أنه يمكن لمستخدمي الإنترنت التلاعب بالنتائج. على سبيل المثال ، أثرت حملة قام بها المستخدمون على نتائج بحث الصور من Google لدرجة أن البحث عن مصطلح 'أحمق' أظهر صورًا للرئيس الأمريكي السابق دونالد ترامب لفترة.

2. تحول Microsoft Bot Tay إلى نازي





تحظى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بشعبية كبيرة ، لا سيما تلك التي تدعمها نماذج لغات كبيرة مثل ChatGPT. ChatGPT به العديد من المشاكل ، لكن منشئيها تعلموا أيضًا من أخطاء الشركات الأخرى.

كانت إحدى أكثر الحوادث البارزة لروبوتات الدردشة التي انحرفت هي محاولة Microsoft إطلاق chatbot Tay.





قلدت تاي الأنماط اللغوية لفتاة مراهقة وتعلمت من خلال تفاعلها مع مستخدمي تويتر الآخرين. ومع ذلك ، فقد أصبحت واحدة من أكثر أخطاء الذكاء الاصطناعي شهرة عندما بدأت في مشاركة تصريحات النازية والافتراءات العنصرية. اتضح أن المتصيدون استخدموا التعلم الآلي للذكاء الاصطناعي ضدها ، مما أدى إلى إغراقها بالتفاعلات المحملة بالتعصب الأعمى.

لم يمض وقت طويل بعد ، قامت Microsoft بإيقاف تشغيل Tay إلى الأبد.

3. مشاكل التعرف على الوجه بالذكاء الاصطناعي

التعرف على الوجوه غالبًا ما يتصدر الذكاء الاصطناعي عناوين الأخبار لجميع الأسباب الخاطئة ، مثل القصص المتعلقة بالتعرف على الوجه ومخاوف الخصوصية. لكن هذا الذكاء الاصطناعي لديه تاريخ إشكالي عند محاولة التعرف على الأشخاص الملونين.

في عام 2015 ، اكتشف المستخدمون أن صور Google كانت تصنف بعض السود على أنهم غوريلا. في عام 2018 ، أظهر بحث أجراه اتحاد الحريات المدنية الأمريكي أن برنامج تحديد الوجه Rekognition من أمازون حدد 28 عضوًا في الكونجرس الأمريكي كمشتبه بهم من الشرطة ، مع وجود نتائج إيجابية كاذبة تؤثر بشكل غير متناسب على الأشخاص الملونين.

حادثة أخرى تضمنت برنامج Face ID الخاص بشركة Apple والذي حدد بشكل غير صحيح امرأتين صينيتين مختلفتين على أنهما نفس الشخص. نتيجة لذلك ، يمكن لزميل مالك iPhone X فتح الهاتف.

في مثال على العواقب الشديدة ، أدى التعرف على الوجه إلى اعتقالات خاطئة للعديد من الأشخاص. سلكي ذكرت في ثلاث حالات من هذا القبيل.

وفي الوقت نفسه ، تذكرت عالمة الكمبيوتر جوي بولامويني حاجتها في كثير من الأحيان إلى ارتداء قناع أبيض أثناء العمل على تقنية التعرف على الوجه من أجل جعل البرنامج يتعرف عليها. لحل مشكلات مثل هذه ، يلفت Buolamwini وغيره من متخصصي تكنولوجيا المعلومات الانتباه إلى مسألة انحياز الذكاء الاصطناعي والحاجة إلى مجموعات بيانات أكثر شمولاً.

إضافة جدول الحصص إلى تقويم جوجل

4. Deepfakes المستخدمة في الخدع

بينما استخدم الأشخاص برنامج Photoshop منذ فترة طويلة لإنشاء صور خادعة ، فإن التعلم الآلي يأخذ هذا إلى مستوى جديد. يستخدم Deepfakes التعلم العميق AI لإنشاء صور ومقاطع فيديو مزيفة . يسمح لك برنامج مثل FaceApp بتبديل الموضوعات من مقطع فيديو إلى آخر.

لكن العديد من الأشخاص يستغلون البرنامج في مجموعة متنوعة من الاستخدامات الضارة ، بما في ذلك وضع وجوه المشاهير في مقاطع فيديو للبالغين أو إنشاء مقاطع فيديو خادعة. وفي الوقت نفسه ، ساعد مستخدمو الإنترنت في تحسين التكنولوجيا لجعل التمييز بين مقاطع الفيديو الحقيقية والمزيفة أمرًا صعبًا بشكل متزايد. ونتيجة لذلك ، فإن هذا يجعل هذا النوع من الذكاء الاصطناعي قويًا للغاية من حيث نشر الأخبار المزيفة والخداع.

لإظهار قوة التكنولوجيا ، قام المخرج جوردان بيل والرئيس التنفيذي لشركة BuzzFeed ، جوناه بيريتي ، بإنشاء مقطع فيديو مزيف عميق يظهر ما يبدو أنه الرئيس الأمريكي السابق باراك أوباما يقدم إعلانات الخدمة العامة حول قوة التزييف العميق.

تم تسريع قوة الصور المزيفة بواسطة مولدات الصور التي تعمل بالذكاء الاصطناعي. تبين أن المنشورات الفيروسية في عام 2023 التي تصور اعتقال دونالد ترامب والبابا الكاثوليكي مرتديًا سترة منفوخة كانت نتيجة للذكاء الاصطناعي التوليدي.

هناك نصائح يمكنك اتباعها لاكتشاف الصورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، لكن التكنولوجيا أصبحت متطورة بشكل متزايد.

5. يقول الموظفون إن شركة Amazon AI قررت توظيف الرجال بشكل أفضل

في أكتوبر 2018 ، رويترز ذكرت أن أمازون اضطرت إلى إلغاء أداة التوظيف بعد أن قررت منظمة العفو الدولية للبرنامج أن المرشحين الذكور هم الأفضلية.

تقدم الموظفون الذين رغبوا في عدم الكشف عن هويتهم لإخبار رويترز عن عملهم في المشروع. أراد المطورون أن يحدد الذكاء الاصطناعي أفضل المرشحين لوظيفة بناءً على سيرهم الذاتية. ومع ذلك ، سرعان ما لاحظ الأشخاص المشاركون في المشروع أن منظمة العفو الدولية تعاقب المرشحات. وأوضحوا أن الذكاء الاصطناعي استخدم السير الذاتية من العقد الماضي ، ومعظمها من الرجال ، كمجموعة بيانات تدريبية.

ونتيجة لذلك ، بدأت منظمة العفو الدولية في تصفية السير الذاتية بناءً على الكلمة الرئيسية 'نساء'. ظهرت الكلمة الرئيسية في السيرة الذاتية تحت أنشطة مثل 'كابتن نادي الشطرنج للسيدات'. بينما قام المطورون بتغيير الذكاء الاصطناعي لمنع معاقبة السير الذاتية للنساء ، ألغت أمازون المشروع في النهاية.

6. روبوتات المحادثة Jailbroken

بينما توجد قيود على برامج الدردشة الأحدث لمنعها من تقديم إجابات تتعارض مع شروط الخدمة الخاصة بهم ، يبحث المستخدمون عن طرق لكسر حماية الأدوات لتوفير محتوى محظور.

يعتقد Windows 10 أن الطابعة غير متصلة بالإنترنت

في عام 2023 ، تمكن الباحث الأمني ​​في Forcepoint Aaron Mulgrew من إنشاء برمجيات ضارة في اليوم صفر باستخدام مطالبات ChatGPT.

قال مولجرو في فورس بوينت .

وبحسب ما ورد تمكن المستخدمون من الحصول على روبوتات محادثة لإعطائهم تعليمات حول كيفية صنع القنابل أو سرقة السيارات.

7. حوادث السيارات ذاتية القيادة

تضاءل الحماس للمركبات ذاتية القيادة من مرحلة الضجيج الأولية بسبب الأخطاء التي ارتكبها الذكاء الاصطناعي ذاتية القيادة. في عام 2022 ، واشنطن بوست ذكرت أنه في غضون عام تقريبًا ، تم الإبلاغ عن 392 حادثًا تتضمن أنظمة مساعدة السائق المتقدمة إلى الإدارة الوطنية الأمريكية لسلامة المرور على الطرق السريعة.

وشملت هذه الحوادث إصابات خطيرة وستة قتلى.

على الرغم من أن هذا لم يمنع شركات مثل Tesla من متابعة المركبات ذاتية القيادة تمامًا ، إلا أنه أثار مخاوف بشأن زيادة الحوادث نظرًا لأن المزيد من السيارات التي تعمل ببرامج ذاتية القيادة تنطلق على الطرقات.

تعلم الآلة الذكاء الاصطناعي ليس مضمونًا

بينما يمكن للتعلم الآلي إنشاء أدوات ذكاء اصطناعي قوية ، إلا أنها ليست محصنة ضد البيانات السيئة أو العبث البشري. سواء كان ذلك بسبب بيانات التدريب المعيبة ، أو القيود المفروضة على تقنية الذكاء الاصطناعي ، أو الاستخدام من قبل الجهات الفاعلة السيئة ، فقد أدى هذا النوع من الذكاء الاصطناعي إلى العديد من الحوادث السلبية.