بُكرة  مع سلمى وعمرو

107: الآلة ضد الإنسانية

08.12.2020 - By ثمَانِيَة /thmanyahPlay

Download our free app to listen on your phone

Download on the App StoreGet it on Google Play

كل يوم نسمع أكثر وأكثر عن الذكاء الاصطناعي والمستقبل التعيس بعد أن تسيطر الآلة على العالم ولا يبقى للبشر شيء من هذا المستقبل! أم أن هذا كله في أفلام وروايات الخيال العلمي فقط؟ والواقع أن الذكاء الاصطناعي سيساعد البشر في عيش حياة هنيئة وسعيدة؟

 

 الحقيقة أن الآلة لا تفكر ولا تريد السيطرة على العالم، هي فقط تحلل وتتعلم من البيانات التي يغذيها البشر، إذا أصبح هناك خطأ فالبيانات هي المسؤول الأول وليس الآلة. ولكن، كيف لنا أن نضمن عالم لا يسيء استخدام هذه الأنظمة؟ يجب أولًا أن نحدد أهم الانتهاكات الأخلاقية التي ترتكبها هذه الأنظمة.

 

تتجلى الكثير من هذه الانتهاكات في أنظمة التعرف الوجه التي تستخدم في بعض الدول مثل الصين لتتعرف على الأقلية المسلمة هناك وتتحكم بهم، أو بعض المواقع التي تتيح لك أن تبحث عن صورة أي شخص وتستخرج كم هائل من المعلومات عنه من الإنترنت. كيف سيصبح المستقبل إذا كان وجهك فقط وسيلة لمعلومات خاصة أخرى؟

 

 الحلقة “107” من بودكاست أرباع مع فهد الحازمي عن مسؤولية الذكاء الاصطناعي الأخلاقية.

 

شكرًا لكم على 1,000,000 استماع! يهمنا فعلًا تقييمكم  بودكاست على iTunes، وتستطيع أن تقترح ضيف ل بودكاست أرباع بمراسلة الوليد على بريده الإلكتروني: [email protected]

 

تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندرويد.

 

الروابط:

@fahd09 - فهد على تويتر

المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي - مقالة فهد على ثمانية See omnystudio.com/listener for privacy information.

More episodes from بُكرة مع سلمى وعمرو