
Sign up to save your podcasts
Or
كل يوم نسمع أكثر وأكثر عن الذكاء الاصطناعي والمستقبل التعيس بعد أن تسيطر الآلة على العالم ولا يبقى للبشر شيء من هذا المستقبل! أم أن هذا كله في أفلام وروايات الخيال العلمي فقط؟ والواقع أن الذكاء الاصطناعي سيساعد البشر في عيش حياة هنيئة وسعيدة؟
الحقيقة أن الآلة لا تفكر ولا تريد السيطرة على العالم، هي فقط تحلل وتتعلم من البيانات التي يغذيها البشر، إذا أصبح هناك خطأ فالبيانات هي المسؤول الأول وليس الآلة. ولكن، كيف لنا أن نضمن عالم لا يسيء استخدام هذه الأنظمة؟ يجب أولًا أن نحدد أهم الانتهاكات الأخلاقية التي ترتكبها هذه الأنظمة.
تتجلى الكثير من هذه الانتهاكات في أنظمة التعرف الوجه التي تستخدم في بعض الدول مثل الصين لتتعرف على الأقلية المسلمة هناك وتتحكم بهم، أو بعض المواقع التي تتيح لك أن تبحث عن صورة أي شخص وتستخرج كم هائل من المعلومات عنه من الإنترنت. كيف سيصبح المستقبل إذا كان وجهك فقط وسيلة لمعلومات خاصة أخرى؟
الحلقة “107” من بودكاست أرباع مع فهد الحازمي عن مسؤولية الذكاء الاصطناعي الأخلاقية.
شكرًا لكم على 1,000,000 استماع! يهمنا فعلًا تقييمكم بودكاست على iTunes، وتستطيع أن تقترح ضيف ل بودكاست أرباع بمراسلة الوليد على بريده الإلكتروني: [email protected]
تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندرويد.
الروابط:
@fahd09 - فهد على تويتر
المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي - مقالة فهد على ثمانية
See omnystudio.com/listener for privacy information.
4.6
406406 ratings
كل يوم نسمع أكثر وأكثر عن الذكاء الاصطناعي والمستقبل التعيس بعد أن تسيطر الآلة على العالم ولا يبقى للبشر شيء من هذا المستقبل! أم أن هذا كله في أفلام وروايات الخيال العلمي فقط؟ والواقع أن الذكاء الاصطناعي سيساعد البشر في عيش حياة هنيئة وسعيدة؟
الحقيقة أن الآلة لا تفكر ولا تريد السيطرة على العالم، هي فقط تحلل وتتعلم من البيانات التي يغذيها البشر، إذا أصبح هناك خطأ فالبيانات هي المسؤول الأول وليس الآلة. ولكن، كيف لنا أن نضمن عالم لا يسيء استخدام هذه الأنظمة؟ يجب أولًا أن نحدد أهم الانتهاكات الأخلاقية التي ترتكبها هذه الأنظمة.
تتجلى الكثير من هذه الانتهاكات في أنظمة التعرف الوجه التي تستخدم في بعض الدول مثل الصين لتتعرف على الأقلية المسلمة هناك وتتحكم بهم، أو بعض المواقع التي تتيح لك أن تبحث عن صورة أي شخص وتستخرج كم هائل من المعلومات عنه من الإنترنت. كيف سيصبح المستقبل إذا كان وجهك فقط وسيلة لمعلومات خاصة أخرى؟
الحلقة “107” من بودكاست أرباع مع فهد الحازمي عن مسؤولية الذكاء الاصطناعي الأخلاقية.
شكرًا لكم على 1,000,000 استماع! يهمنا فعلًا تقييمكم بودكاست على iTunes، وتستطيع أن تقترح ضيف ل بودكاست أرباع بمراسلة الوليد على بريده الإلكتروني: [email protected]
تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندرويد.
الروابط:
@fahd09 - فهد على تويتر
المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي - مقالة فهد على ثمانية
See omnystudio.com/listener for privacy information.
3,760 Listeners
1,099 Listeners
3,691 Listeners
75 Listeners
450 Listeners
396 Listeners
253 Listeners
466 Listeners
767 Listeners
184 Listeners
495 Listeners
147 Listeners
1,274 Listeners
656 Listeners
24 Listeners
988 Listeners
85 Listeners
1,737 Listeners
217 Listeners
121 Listeners
262 Listeners
278 Listeners
39 Listeners
11 Listeners
16 Listeners
0 Listeners
0 Listeners
2 Listeners
10 Listeners