الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم
آخر تحديث 23:34:17 بتوقيت أبوظبي
 صوت الإمارات -

يمكن صنع لقطات مزيفة عن طريق التلاعب

الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم

 صوت الإمارات -

 صوت الإمارات - الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم

Face2Face يتيح لك العرائس للمشاهير وللسياسيين
واشنطن - رولا عيسى

في عصر الفوتوشوب والفلاتر ومواقع التواصل الاجتماعي، فالكثير منا لا يستطيع رؤية  التلاعب في الصور فتصبح المواضيع أقل حجمًا وأكثر سلاسة، أما في حالة "سناب شات"، فتتحول الصور من صور أشخاص إلى جراء صغيرة، ومع ذلك، فهناك سلالة جديدة من أدوات التلاعب في الفيديو والصوت، حققت المستحيل من خلال التقدم في الذكاء الاصطناعي ورسومات الكمبيوتر والتي من شأنها تخلق لقطات تبدو واقعية للشخصيات العامة يمكنها أن تفعل أي شيء.

على سبيل المثال، ترامب يعلن ميله للرياضات المائية، وهيلاري كلينتون تكشف أنها تحافظ على تأمينها في قبو النبيذ، وتوم كروز اعترف أخيرا أنه بروني.. هذا هو مستقبل الأخبار المزيفة، لقد قيل لنا منذ زمنًا طويلا أن لا نصدق كل ما نقرأه، ولكن سرعان ما سيكون علينا أن نتساءل عن  ما نراه ونسمعه أيضًا، ففي الوقت الراهن، هناك العديد من فرق البحث تعمل عل تحليل مختلف العناصر البصرية والصوتية للسلوك البشري، وقد تم تطويرها البرمجيات في جامعة "ستانفورد" القادرة على التلاعب لقطات الفيديو للشخصيات العامة للسماح لشخص آخر بالتحكم فيما يقولون - فتقوم البرمجيات بنقل تعبيرات الوجه من شخص لشخص آخر مع تغير وإضافة بعض الكلمات، وأظهر فريق البحث التكنولوجيا الخاصة بهم من قبل أشرطة الفيديو العرائس من جورج بوش، فلاديمير بوتين ودونالد ترامب، من تلقاء نفسها، Face2Face  ومع ذلك فان ألعوبة نقل الوجه بتعبيراته " فيس تو فيس" هي ممتعة لخلق الميمات ومسلية في وقت متأخر من المضيفين حواري ليلا. 

ويعمل فريق بحث في جامعة ألاباما في برمنجهام على انتحال الصوت، مع 3-5 دقائق من صوت الضحية - تؤخذ مباشرة أو من أشرطة فيديو "يوتيوب" أو البرامج الإذاعية - فيمكن للمهاجم خلق صوت توليف الزى يمكن أن تخدع كل من البشر وأنظمة الأمن البيومترية الصوت المستخدمة من قبل بعض البنوك والهواتف الذكي، كما  يمكن للمهاجم التحدث إلى ميكروفون وسوف البرنامج تحويله بحيث الكلمات سليمة كما يتم التحدث بها من قبل الضحية - سواء كان ذلك عبر الهاتف أو على برنامج إذاعي

وقد طورت شركة ليريبيرد الكندية قدرات مماثلة، والتي تقول أنها يمكن أن تستخدم لتحويل النص على الفور "قراءة" من قبل أصوات شهيرة أو لشخصيات في ألعاب الفيديو، وعلى الرغم من أن نواياها قد تكون ذات معنى جيد، فإن تقنية تحويل الصوت يمكن أن تقترن بتكنولوجيا وتحوير الوجه لخلق بيانات وهمية مقنعة من الشخصيات العامة، فعليك أن تنظر في مشروع جامعة أوباما، حيث  قاموا بأخذ الصوت من خطب أوباما واستخدموه لتحريك وجهه في فيديو مختلف تماما بدقة لا تصدق للحصول على شعور.

 وقال نيتش ساكسينا، الأستاذ المساعد ومدير الأبحاث في جامعة ألاباما في قسم علوم الحاسب الآلي في برمنجهام، إنه بالإضافة إلى الأخبار المزيفة هناك العديد من الآثار الأخرى. "هل يمكنك ترك رسائل صوتية وهمية تشكل كأم لشخص ما أو تشويه سمعة شخص ما نشر عينات الصوت عبر الإنترنت."

وتعبر تقنيات مورفينغ ليست تقنيات مثالية بعد، فقد تبدو تعبيرات الوجه في أشرطة الفيديو مشوهة أو غير طبيعية قليلا، ويمكن أن تبدو الأصوات روبوتية قليلا، ولكن مع الوقت، سوف تكون قادر على إعادة العب في  الصوت أو مظهر شخص - إلى درجة قد يكون من الصعب جدا على البشر للكشف عن الاحتيال نظرا لتآكل الثقة في وسائل الإعلام وانتشار الخداع المتفشي عبر وسائل التواصل الاجتماعي، سيصبح من المهم بالنسبة للمؤسسات الإخبارية أن تدقق في المحتوى.

 وأوضح ماندي جينكينز، من شركة "ستوريفول" الإخبارية الاجتماعية، وهي شركة متخصصة في التحقق في المحتوى ،أن الناس يجب أن ينظروا أيضا إلى الإضاءة والظلال في الفيديو، وما إذا كانت جميع العناصر الواردة في الإطار في حجمها الصحيح، وما إذا كان الصوت متزامنا تماما محتوى الأخبار فالمحتوى الذي تم العبث  فيه لا يمكنه ان يمر من غرفه التحقق من الأخبار ولكنه إذا انتشر على مواقع التواصل الاجتماعي يمكن أن يسبب كارثة سياسية آو دبلوماسية  فتخيل ترامب وهو يعلن الحرب على كوريا الشمالية، مضيفًا :"إذا كان شخص ما يبدو مثل ترامب ويتحدث مثل ترامب فسوف يعتقد أنه ترامب

emiratesvoice
emiratesvoice

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم



GMT 19:13 2024 الخميس ,21 تشرين الثاني / نوفمبر

الفستق يتمتع بتأثير إيجابي على صحة العين ويحافظ على البصر

GMT 16:12 2018 الأحد ,04 تشرين الثاني / نوفمبر

خليفة و بن راشد وبن زايد يهنئون رئيس بنما بذكرى الاستقلال

GMT 13:59 2015 السبت ,31 تشرين الأول / أكتوبر

تصاميم على شكل الماس لحقائب "إن إس باي نوف"

GMT 10:32 2016 الجمعة ,04 آذار/ مارس

لوني شتاءك بأجمل موديلات الأحذية الـ Pumps

GMT 01:32 2024 الأحد ,13 تشرين الأول / أكتوبر

عيش الرفاهية في فنادق ومنتجعات الجميرا الفخمة

GMT 01:28 2019 الأربعاء ,25 كانون الأول / ديسمبر

«بنتلي» تفوز بلقب الشركة الأكثر تقديرًا في بريطانيا

GMT 23:18 2019 السبت ,12 كانون الثاني / يناير

الزمالك يهزم بتروجيت في دوري كرة الطائرة المصري

GMT 19:14 2018 الخميس ,29 تشرين الثاني / نوفمبر

تعرفي على خطوات رئيسية لترتيب خزانة ملابسكِ الخاصة

GMT 11:52 2018 الأحد ,11 تشرين الثاني / نوفمبر

6 أفكار أنيقة مميزة لزينة حفلات الزفاف

GMT 07:51 2013 السبت ,27 تموز / يوليو

جمال كامل فرحان يصدر رواية "كان ردائي أزرق"

GMT 04:48 2018 الثلاثاء ,19 حزيران / يونيو

رواية "الجنية" تمزج الواقع بالخيال بشكل واقعي

GMT 19:29 2013 الأربعاء ,22 أيار / مايو

خيبة المثقف في"طائف الأنس" لعبدالعزيز الصقعبي
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

emiratesvoice emiratesvoice emiratesvoice emiratesvoice
emiratesvoice emiratesvoice emiratesvoice
emiratesvoice
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
emirates , emirates , Emirates