الطائرات بدون طيار وأكثر

0
19

Table of Contents

Rate this post

بالإضافة إلى ذلك ، في عام 2016 ، أظهر نظام من القدرة على التعرف على وجه بشري معين من مليون شخص. برنامج آخر ، أيضا من قبل مبرمجي هذه الشركة ، أظهر القدرة على تحديد الصور مع مكان معين على الكرة الأرضية. تفوق حتى أكثر المسافرين خبرة في هذا الصدد. في أغسطس 2017 ، أعلنت شركة مايكروسوفت أن نظام النسخ الخاص بها متساوٍ من حيث نسبة الأخطاء مع … الناس. حدث هذا على الرغم من حقيقة أن هؤلاء كانوا قادرين على لعب المواد التي كتبوها عدة مرات. كانت نسبة الكلمات التي بها أخطاء إملائية 5.1 في المئة فقط.

الطائرات بدون طيار وأكثر – وهذا هو الذكاء الاصطناعي في الحرب

وفي معرض حديثه عن مخاطر الذكاء الاصطناعي، فإنه من المستحيل ناهيك عن استخدام آلات مستقل لأغراض عسكرية. بعد كل شيء، ودور الطائرات بدون طيار في جيوش في الارتفاع، الأمر الذي يثير تساؤلات أخلاقية خطيرة www.thestate.ae/ على نحو متزايد. حتى تلك المتعلقة بالمسؤولية عن أي شر فعل – على سبيل المثال ، وفاة المدنيين. من يجب أن يقبع خلف القضبان إذا تسبب الموت في آلة مستقلة؟ لا يبدو الجواب على هذا السؤال واضحًا.

الموقعون على الرسالة المفتوحة بعنوان “أسلحة الحكم الذاتي: رسالة مفتوحة من الباحثين الذكاء والروبوتات الصناعية” من 2015 سنة (وبالتالي، من بين أمور أخرى، ستيفن هوكينغ، مؤسس باي بال ايلون موسك، المؤسس المشارك لشركة أبل، ستيف وزنياك، والمتخصصين في مجال الذكاء الاصطناعي والروبوتات) تولي اهتماما بداية كا

الطائرات بدون طيار وأكثر - وهذا هو الذكاء الاصطناعي في الحرب

رثية لسباق تسلح محتمل من الجدير نقلا عن جزء كبير من الوثيقة: “السؤال الرئيسي للبشرية الحديثة هو قرار بشأن ما إذا كان لبدء سباق التسلح العالمي

  1. AI أو منع إنشائها إذا كانت أي قوة مسلحة كبيرة وسوف تبدأ الإجراءات لتطوير سلاح ذكي بشكل مصطنع. وسباق التسلح العالمي أمر لا مفر منه تقريبا، والنهاية
  2. (…) واضح: لتصبح أسلحة كلاشينكوف مستقلة غدا على عكس الأسلحة النووية، فإنها لا تتطلب تكلفة وصعوبة الحصول على المواد الخام وأصبحت شائعة جدا وعلى نطاق واسع ه ورخيصة لجميع القوى العسكرية الهامة
  3. (…). تبقى مسألة وقت وسوف تظهر في السوق السوداء وفي أيدي الإرهابيين، الطغاة الذين يرغبون في تحسين السيطرة على سكانها، وقادة تسعى لتنفيذ التطهير العرقي وهلم جرا “- ويقول الباحثون في بريد إلكتروني متوفر على

 

يبدو أنه في حالة استخدام IS لأغراض عسكرية ، فإننا نواجه نوعًا من “معضلة السجين”. لأنه إذا قرر الحزب الواحد (في هذه الحالة الدولة) لتطوير الذكاء الاصطناعي لأغراض عسكرية، ومنافسيها على الامتناع عن هذا، وهو نفس الربح والخسارة يتعرض لهزيمة بسهولة المنافسة يبرهن على أن تكون عملاقة المسلح.

لأن الجميع يدركون ذلك ، خوفا من أن يكونوا في وضع أضعف في سباق التسلح ، فإن كل دولة قادرة على اتخاذ قرار بتطوير تكنولوجيا مرعبة. من وجهة نظر العالم ككل، إلا أنه تبين أن تكون أسوأ حل ممكن. الدمار لن يهدد فقط الدولة الأضعف ولكن الجميع. والأكثر من ذلك أنه ، كما لاحظ الموقعون على الرسالة ، لا توجد مشكلة في الحصول على هذا النوع من الأسلحة ، عندما يصبح الإرهابيون معروفين ومتاحين ، يمكنهم الدخول.

الأهداف غير العسكرية على نفس القدر من الخطورةقد يكون الحل الوحيد فرض حظر دولي على تطوير هذا النوع من التكنولوجيا. ومع ذلك ، فإنه يتطلب اعتماد من قبل جميع المقاطعات من السيطرة المستمرة والثقة المتبادلة. إن تنفيذ مثل هذا الحظر صعب ، رغم أنه ضروري. إن تنفيذ وتنفيذ مثل هذا الحظر صعب حسب الضرورة. إن ممثلي المجتمعات البحثية الكندية يدركون جيداً هذا الأمر. لذلك ، في 2 نوفمبر 2017 ، أصدروا رسالة مفتوحة بشأن الحظر الدولي على استخدام الذكاء الاصطناعي كسلاح

. ودعوا كندا إلى دعم هذا الحظر في منتدى الأمم المتحدة. وقد تم تقديم افتراضات مماثلة من قبل المتخصصين الأستراليين في الذكاء الاصطناعي.الأهداف غير العسكرية على نفس القدر من الخطورة

بدوره ، رافائيل Yuste ، سارة غورينغ وغيرها في الرسالة المفتوحة من 8 نوفمبر 2017 (المتاحة على “Nature.com” البوابة) أيضا لفت الانتباه إلى التهديدات غير العسكرية ذات الصلة الذكاء الاصطناعي. في رأيهم ، “التطور التكنولوجي يعني أننا نسير على الطريق المؤدي إلى العالم ، حيث سيكون من الممكن فك تشفير العمليات العقلية للناس والتلاعب المباشر بآليات الدماغ التي ترتكز عليها عواطفهم (…) ، قراراتهم”.

إلكتروني

LEAVE A REPLY

Please enter your comment!
Please enter your name here