واشنطن – صوت الإمارات
صعد قطب وادي سيلكون إيلون ماسك حربه الكلامية في مجال التكنولوجيا مع الملياردير المنافس له مارك زوكربيرج الثلاثاء بشأن ما إذا كان الروبوت أو الإنسان الآلي سيصبح ذكيا بما يكفي لقتل من قام بصنعه من البشر. وقال ماسك في تغريدة عن زوكربيرج مؤسس شركة فيسبوك الذي أحدثت قواعده في مجال الرياضيات والتكنولوجيا الأخرى ثورة في وسائل التواصل الاجتماعي وأصبح لديه مليارا مستخدم نشط لفيسبوك شهريا إن "فهمه للموضوع محدود". وماسك هو الرئيس التنفيذي لشركة تيسلا لصناعة السيارات الكهربائية وشركة سبيس إكس للصواريخ.
وسئل زوكربيرج سابقا عن آراء ماسك بشأن أخطار الروبوت فانتقد "الرافضين" الذين تتسم "سيناريوهات يوم القيامة" التي يتحدثون عنها "بعدم المسؤولية". ودخل زوكربيرج وماسك في مناظرة عن بعد خلال الأيام القليلة الماضية بشأن أخطار الذكاء الاصطناعي. ويختلف الاثنان بشدة بشأن ما إذا كان يتعين وضع قوانين حكومية أكثر صرامة بالنسبة للتكنولوجيا. ولم ترد فيسبوك بعد على طلب للتعليق على التغريدة التي نشرها ماسك في الساعة 1007 بتوقيت جرينتش من حسابه الرسمي.
ويستخدم تعبير الذكاء الاصطناعي لوصف الآلات المزودة بشفرة كمبيوتر والتي تتعلم مع مضي الوقت. وستصبح هذه التكنولوجيا أكثر استخداما في قطاعات مثل الرعاية الصحية والترفيه والبنوك. والخوف من إمكان أن تصبح هذه الآلات ذكية جدا إلى حد أنها قد تثور وتطيح بالبشرية فكرة شائعة في أفلام الخيال العلمي.
وقال ماسك في تجمع لحكام الولايات الأمريكية هذا الشهر إن الأخطار المحتملة ليست خيالية جدا وإنه لا بد من التحرك لتنظيم الذكاء الاصطناعي. وظهر ماسك في شريط مصور لهذا التجمع وهو يقول "سأظل أقرع ناقوس الخطر ولكن إلى أن يرى الناس الروبوتات تسير في الشوارع وتقتل الناس لن يعرفوا كيف يكون ردهم لأن ذلك يبدو أمرا غير واقعي جدا. "الذكاء الاصطناعي خطر على وجود الحضارة الإنسانية".
وقال زوكربيرج في بث مباشر على فيسبوك يوم الأحد عندما طلب منه شخص تقييم تصريحات ماسك "إنني فعلا متفائل... ولا أفهم الناس الرافضين ويحاولون الترويج لسيناريوهات يوم القيامة." وأضاف "أنه أمر سلبي في حقيقة الأمر وأعتقد فعليا بشكل ما إنها(السيناريوهات) لا تتسم بالمسؤولية". وقال زوكربيرج إن الذكاء الاصطناعي قد يؤدي إلى تحسين تشخيص الأمراض والقضاء على حوادث السيارات وإنه لا يفهم كيف يمكن للناس "بضمير حي" أن تسعى لإبطاء تطوير الذكاء الاصطناعي.