
Sign up to save your podcasts
Or
كل يوم نسمع أكثر وأكثر عن الذكاء الاصطناعي والمستقبل التعيس بعد أن تسيطر الآلة على العالم ولا يبقى للبشر شيء من هذا المستقبل! أم أن هذا كله في أفلام وروايات الخيال العلمي فقط؟ والواقع أن الذكاء الاصطناعي سيساعد البشر في عيش حياة هنيئة وسعيدة؟
الحقيقة أن الآلة لا تفكر ولا تريد السيطرة على العالم، هي فقط تحلل وتتعلم من البيانات التي يغذيها البشر، إذا أصبح هناك خطأ فالبيانات هي المسؤول الأول وليس الآلة. ولكن، كيف لنا أن نضمن عالم لا يسيء استخدام هذه الأنظمة؟ يجب أولًا أن نحدد أهم الانتهاكات الأخلاقية التي ترتكبها هذه الأنظمة.
تتجلى الكثير من هذه الانتهاكات في أنظمة التعرف الوجه التي تستخدم في بعض الدول مثل الصين لتتعرف على الأقلية المسلمة هناك وتتحكم بهم، أو بعض المواقع التي تتيح لك أن تبحث عن صورة أي شخص وتستخرج كم هائل من المعلومات عنه من الإنترنت. كيف سيصبح المستقبل إذا كان وجهك فقط وسيلة لمعلومات خاصة أخرى؟
الحلقة “107” من بودكاست أرباع مع فهد الحازمي عن مسؤولية الذكاء الاصطناعي الأخلاقية.
شكرًا لكم على 1,000,000 استماع! يهمنا فعلًا تقييمكم بودكاست على iTunes، وتستطيع أن تقترح ضيف ل بودكاست أرباع بمراسلة الوليد على بريده الإلكتروني: [email protected]
تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندرويد.
الروابط:
@fahd09 - فهد على تويتر
المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي - مقالة فهد على ثمانية
See omnystudio.com/listener for privacy information.
4.6
406406 ratings
كل يوم نسمع أكثر وأكثر عن الذكاء الاصطناعي والمستقبل التعيس بعد أن تسيطر الآلة على العالم ولا يبقى للبشر شيء من هذا المستقبل! أم أن هذا كله في أفلام وروايات الخيال العلمي فقط؟ والواقع أن الذكاء الاصطناعي سيساعد البشر في عيش حياة هنيئة وسعيدة؟
الحقيقة أن الآلة لا تفكر ولا تريد السيطرة على العالم، هي فقط تحلل وتتعلم من البيانات التي يغذيها البشر، إذا أصبح هناك خطأ فالبيانات هي المسؤول الأول وليس الآلة. ولكن، كيف لنا أن نضمن عالم لا يسيء استخدام هذه الأنظمة؟ يجب أولًا أن نحدد أهم الانتهاكات الأخلاقية التي ترتكبها هذه الأنظمة.
تتجلى الكثير من هذه الانتهاكات في أنظمة التعرف الوجه التي تستخدم في بعض الدول مثل الصين لتتعرف على الأقلية المسلمة هناك وتتحكم بهم، أو بعض المواقع التي تتيح لك أن تبحث عن صورة أي شخص وتستخرج كم هائل من المعلومات عنه من الإنترنت. كيف سيصبح المستقبل إذا كان وجهك فقط وسيلة لمعلومات خاصة أخرى؟
الحلقة “107” من بودكاست أرباع مع فهد الحازمي عن مسؤولية الذكاء الاصطناعي الأخلاقية.
شكرًا لكم على 1,000,000 استماع! يهمنا فعلًا تقييمكم بودكاست على iTunes، وتستطيع أن تقترح ضيف ل بودكاست أرباع بمراسلة الوليد على بريده الإلكتروني: [email protected]
تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندرويد.
الروابط:
@fahd09 - فهد على تويتر
المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي - مقالة فهد على ثمانية
See omnystudio.com/listener for privacy information.
3,748 Listeners
1,097 Listeners
3,665 Listeners
75 Listeners
447 Listeners
398 Listeners
253 Listeners
456 Listeners
767 Listeners
183 Listeners
493 Listeners
146 Listeners
1,270 Listeners
662 Listeners
24 Listeners
991 Listeners
85 Listeners
1,736 Listeners
216 Listeners
122 Listeners
257 Listeners
275 Listeners
35 Listeners
9 Listeners
15 Listeners
0 Listeners
0 Listeners
3 Listeners
5 Listeners