مستقبل تقنية التزييف العميق بالذكاء الاصطناعي: 3 مخاطر حقيقية لهذه التكنولوجيا المتطورة

مستقبل تقنية التزييف العميق بالذكاء الاصطناعي: 3 مخاطر حقيقية لهذه التكنولوجيا المتطورة
القراء مثلك يساعدون في دعم MUO. عند إجراء عملية شراء باستخدام الروابط الموجودة على موقعنا ، فقد نربح عمولة تابعة. اقرأ أكثر.

كان من السهل اكتشاف علامات التزييف العميق للصورة ، لكن الذكاء الاصطناعي التوليدي يجعلنا نتساءل عن كل ما نراه ونسمعه الآن. مع كل نموذج ذكاء اصطناعي جديد يتم إصداره ، تتضاءل علامات الحكاية للصورة المزيفة ، ولإضافة إلى الارتباك ، يمكنك الآن إنشاء مقاطع فيديو مزيفة واستنساخ صوتي لأحبائك وتصنيع مقالات مزيفة في ثوانٍ معدودة.





اجعل فيديو اليوم قم بالتمرير للمتابعة مع المحتوى

لتجنب التعرض للخداع بواسطة تقنية التزييف العميق للذكاء الاصطناعي ، من الجدير معرفة نوع المخاطر التي تشكلها.





تطور تقنية Deepfakes

يظهر التزييف العميق شخصًا يفعل شيئًا لم يحدث أبدًا في الحياة الواقعية. إنها مزيفة تمامًا. نحن نضحك على التزييف العميق عندما يتم مشاركتها على الإنترنت كميم أو مزحة ، لكن قلة قليلة من الناس يجدونها مضحكة عندما يتم استخدامها لتضليلنا.





في الماضي ، تم إنشاء تقنية التزييف العميق عن طريق التقاط صورة موجودة وتعديلها في أحد برامج تحرير الصور مثل Photoshop. ولكن ما يميز التزييف العميق للذكاء الاصطناعي هو أنه يمكن إنشاؤه من نقطة الصفر باستخدام خوارزميات التعلم العميق.

تعذر على windows اكتشاف إعدادات الخادم الوكيل الخاصة بهذه الشبكة تلقائيًا

ال قاموس ميريام وبستر يعرّف deepfake بأنه:



صورة أو تسجيل تم تغييره والتلاعب به بشكل مقنع لتحريف شخص ما على أنه فعل أو قول شيء لم يتم فعله أو قوله بالفعل.

ولكن مع التقدم في تقنية الذكاء الاصطناعي ، بدأ هذا التعريف يبدو قديمًا. باستخدام أدوات الذكاء الاصطناعي ، تتضمن المزيفات العميقة الآن الصور والنصوص ومقاطع الفيديو واستنساخ الصوت. في بعض الأحيان ، يتم استخدام جميع الأنماط الأربعة لتوليد الذكاء الاصطناعي في وقت واحد.





نظرًا لأنها عملية تلقائية سريعة بشكل لا يصدق ورخيصة في الاستخدام ، فهي الأداة المثالية لإخراج التزييف العميق بمعدل لم نشهده من قبل - كل ذلك دون الحاجة إلى معرفة شيء واحد حول كيفية تحرير الصور أو مقاطع الفيديو أو الصوت .

المخاطر الكبرى للذكاء الاصطناعي Deepfakes

مقدم مولدات الفيديو بالذكاء الاصطناعي موجودة بالفعل ، جنبًا إلى جنب مع الكثير من مولدات الصوت بالذكاء الاصطناعي . رمي في نموذج لغة كبير مثل GPT-4 ولديك وصفة لإنشاء أكثر أنواع التزييف العميق تصديقًا التي رأيناها في التاريخ الحديث حتى الآن.





إن إدراك الأنواع المختلفة من عمليات التزييف العميق للذكاء الاصطناعي ، وكيف يمكن استخدامها لخداعك ، هي إحدى الطرق لتجنب التعرض للتضليل. فيما يلي بعض الأمثلة الجادة حول كيفية تشكل تقنية التزييف العميق للذكاء الاصطناعي تهديدًا حقيقيًا.

1. سرقة الهوية بالذكاء الاصطناعي

ربما تكون قد رأيتهم. من بين أول عمليات التزييف العميق للذكاء الاصطناعي التي انتشرت في جميع أنحاء العالم ، كانت صورة دونالد ترامب يُعتقل ، وواحد للبابا فرانسيس يرتدي سترة بيضاء منفوخة.

  قامت منظمة العفو الدولية بإنشاء صورة للبابا فرانسيس في سترة منتفخة ، تم نشرها في منتدى Midjourney على Reddit.

بينما يبدو المرء وكأنه إعادة تخيل بريئة لما قد ترتديه شخصية دينية مشهورة في يوم بارد في روما ؛ الصورة الأخرى ، التي تظهر شخصية سياسية في وضع خطير مع القانون ، لها عواقب أكبر بكثير إذا تم اعتبارها حقيقية.

حتى الآن ، استهدف الأشخاص بشكل أساسي المشاهير والشخصيات السياسية والأفراد المشهورين الآخرين عند إنشاء تقنية التزييف العميق للذكاء الاصطناعي. يرجع ذلك جزئيًا إلى أن الأفراد المشهورين لديهم الكثير من الصور لهم على الإنترنت والتي من المحتمل أن تكون قد ساعدت في تدريب النموذج في المقام الأول.

في حالة مُنشئ صور AI مثل Midjourney - المستخدم في التزييف العميق لترامب والبابا - يحتاج المستخدم ببساطة إلى إدخال نص يصف ما يريد رؤيته. يمكن استخدام الكلمات الأساسية لتحديد نمط الفن ، مثل الصورة الفوتوغرافية أو الواقعية ، ويمكن ضبط النتائج بدقة من خلال رفع مستوى الدقة.

يمكنك بنفس السهولة تعلم كيفية استخدام Midjourney واختبر ذلك بنفسك ، ولكن لأسباب أخلاقية وقانونية واضحة ، يجب تجنب نشر هذه الصور علنًا.

لسوء الحظ ، كونك إنسانًا عاديًا وغير مشهور لن يضمن لك أيضًا أنك في مأمن من التزييف العميق للذكاء الاصطناعي.

تكمن المشكلة في الميزة الرئيسية التي تقدمها مولدات الصور بالذكاء الاصطناعي: القدرة على تحميل صورتك ومعالجتها باستخدام الذكاء الاصطناعي. وأداة مثل طلاء خارجي في DALL-E 2 يمكن أن تمتد صورة حالية إلى ما وراء حدودها عن طريق إدخال موجه نص ووصف ما تريد إنشاؤه أيضًا.

إذا قام شخص آخر بفعل ذلك بصورك ، فقد تكون المخاطر أكبر بكثير من التزييف العميق للبابا في سترة بيضاء - يمكنهم استخدامها في أي مكان ، متظاهرين بأنك أنت. في حين أن معظم الأشخاص يستخدمون الذكاء الاصطناعي بشكل عام بنية حسنة ، إلا أن هناك قيودًا قليلة جدًا تمنع الأشخاص من استخدامه لإحداث ضرر ، خاصة في حالات سرقة الهوية.

2. الحيل Deepfake Voice Clone

بمساعدة الذكاء الاصطناعي ، تجاوزت التزييف العميق خطاً لم يكن معظمنا مستعدين له: استنساخ صوت مزيف. مع قدر ضئيل من الصوت الأصلي - ربما من فيديو TikTok الذي نشرته مرة واحدة ، أو فيديو YouTube الذي تظهر فيه - يمكن لنموذج AI تكرار صوتك الفردي.

هل يحتوي xbox one على إمكانيات البلوتوث

إنه أمر غريب ومخيف على حد سواء أن تتخيل تلقي مكالمة هاتفية تبدو تمامًا مثل أحد أفراد العائلة أو صديق أو زميل. تعد استنساخ الصوت Deepfake مصدر قلق خطير بدرجة كافية لدرجة أن ملف لجنة التجارة الفيدرالية (FTC) أصدر تحذيرًا بشأنه.

لا تثق في الصوت. اتصل بالشخص الذي من المفترض أنه اتصل بك وتحقق من القصة. استخدم رقم هاتف تعرف أنه ملكهم. إذا لم تتمكن من الوصول إلى من تحب ، فحاول الاتصال بهم من خلال فرد آخر من العائلة أو من خلال أصدقائهم.

ذكرت صحيفة واشنطن بوست حالة زوجين في السبعينيات من العمر تلقيا مكالمة هاتفية من شخص بدا مثل حفيدهما تمامًا. كان في السجن وكان بحاجة ماسة إلى المال للإفراج عنه بكفالة. نظرًا لعدم وجود سبب آخر للشك في من يتحدثون ، فقد تقدموا وسلموا الأموال إلى المحتال.

ليس فقط الجيل الأكبر سنًا هو الذي يتعرض للخطر أيضًا ، ذكرت صحيفة الغارديان مثال آخر لمدير بنك وافق على صفقة بقيمة 35 مليون دولار بعد سلسلة من 'المكالمات المزيفة' من شخص يعتقد أنه مدير بنك.

3. أخبار مزيفة منتجة بكميات كبيرة

نماذج اللغات الكبيرة ، مثل الدردشة يجيدون جدًا إنتاج نص يبدو كإنسان تمامًا ، ولا نمتلك حاليًا أدوات فعالة لاكتشاف الاختلاف. في الأيدي الخطأ ، سيكون إنتاج الأخبار المزيفة ونظريات المؤامرة رخيصًا وسيستغرق وقتًا أطول لفضح زيفها.

إن نشر المعلومات الخاطئة ليس شيئًا جديدًا بالطبع ، ولكنه ورقة بحثية تم نشره في arXiv يوضح في يناير 2023 أن المشكلة تكمن في مدى سهولة توسيع نطاق الإنتاج باستخدام أدوات الذكاء الاصطناعي. يشيرون إليها على أنها 'حملات التأثير التي يولدها الذكاء الاصطناعي' ، والتي يقولون ، على سبيل المثال ، يمكن أن يستخدمها السياسيون للاستعانة بمصادر خارجية لحملاتهم السياسية.

يؤدي الجمع بين أكثر من مصدر تم إنشاؤه بواسطة الذكاء الاصطناعي إلى إنشاء التزييف العميق عالي المستوى. على سبيل المثال ، يمكن لنموذج الذكاء الاصطناعي إنشاء قصة إخبارية مكتوبة جيدًا ومقنعة لتتماشى مع الصورة المزيفة لاعتقال دونالد ترامب. وهذا يعطيها شرعية أكثر مما لو تمت مشاركة الصورة من تلقاء نفسها.

لا تقتصر الأخبار المزيفة على الصور والكتابة أيضًا ، فالتطورات في إنشاء الفيديو بالذكاء الاصطناعي تعني أننا نشهد المزيد من مقاطع الفيديو المزيفة. إليكم أحد روبرت داوني جونيور الذي تم تطعيمه في مقطع فيديو لإيلون ماسك ، تم نشره بواسطة قناة اليوتيوب Deepfakery.

يمكن أن يكون إنشاء تقنية التزييف العميق أمرًا بسيطًا مثل تنزيل أحد التطبيقات. يمكنك استخدام تطبيق مثل TokkingHeads لتحويل الصور الثابتة إلى صور رمزية متحركة ، والذي يسمح لك بتحميل صورتك وصوتك لجعل الأمر يبدو وكأن الشخص يتحدث.

بالنسبة للجزء الأكبر ، فهي مسلية وممتعة ، ولكن هناك أيضًا احتمال حدوث مشاكل. إنه يوضح لنا مدى سهولة استخدام صورة أي شخص لجعل الأمر يبدو كما لو أن هذا الشخص نطق بكلمات لم يتكلمها مطلقًا.

هل يمكن لشخصين مشاهدة Netflix في نفس الوقت

لا تنخدع بتزييف عميق للذكاء الاصطناعي

يمكن نشر تقنية التزييف العميق (Deepfakes) بسرعة بتكلفة قليلة جدًا وبشريط منخفض من الخبرة أو قوة الحوسبة المطلوبة. يمكن أن تأخذ شكل صورة تم إنشاؤها أو استنساخ صوتي أو مجموعة من الصور والصوت والنص التي تم إنشاؤها بواسطة AI.

لقد كان إنتاج التزييف العميق أكثر صعوبة واستهلاكًا لليد العاملة ، ولكن الآن ، مع وجود الكثير من تطبيقات الذكاء الاصطناعي ، يمكن لأي شخص تقريبًا الوصول إلى الأدوات المستخدمة لإنشاء التزييف العميق. نظرًا لأن تقنية التزييف العميق للذكاء الاصطناعي تتطور أكثر فأكثر ، فمن الجدير أن تراقب عن كثب المخاطر التي تشكلها.