
Sign up to save your podcasts
Or


كل يوم نسمع أكثر وأكثر عن الذكاء الاصطناعي والمستقبل التعيس بعد أن تسيطر الآلة على العالم ولا يبقى للبشر شيء من هذا المستقبل! أم أن هذا كله في أفلام وروايات الخيال العلمي فقط؟ والواقع أن الذكاء الاصطناعي سيساعد البشر في عيش حياة هنيئة وسعيدة؟
الحقيقة أن الآلة لا تفكر ولا تريد السيطرة على العالم، هي فقط تحلل وتتعلم من البيانات التي يغذيها البشر، إذا أصبح هناك خطأ فالبيانات هي المسؤول الأول وليس الآلة. ولكن، كيف لنا أن نضمن عالم لا يسيء استخدام هذه الأنظمة؟ يجب أولًا أن نحدد أهم الانتهاكات الأخلاقية التي ترتكبها هذه الأنظمة.
تتجلى الكثير من هذه الانتهاكات في أنظمة التعرف الوجه التي تستخدم في بعض الدول مثل الصين لتتعرف على الأقلية المسلمة هناك وتتحكم بهم، أو بعض المواقع التي تتيح لك أن تبحث عن صورة أي شخص وتستخرج كم هائل من المعلومات عنه من الإنترنت. كيف سيصبح المستقبل إذا كان وجهك فقط وسيلة لمعلومات خاصة أخرى؟
الحلقة “107” من بودكاست أرباع مع فهد الحازمي عن مسؤولية الذكاء الاصطناعي الأخلاقية.
شكرًا لكم على 1,000,000 استماع! يهمنا فعلًا تقييمكم بودكاست على iTunes، وتستطيع أن تقترح ضيف ل بودكاست أرباع بمراسلة الوليد على بريده الإلكتروني: [email protected]
تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندرويد.
الروابط:
@fahd09 - فهد على تويتر
المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي - مقالة فهد على ثمانية
See omnystudio.com/listener for privacy information.
By ثمَانِيَة /thmanyah4.6
406406 ratings
كل يوم نسمع أكثر وأكثر عن الذكاء الاصطناعي والمستقبل التعيس بعد أن تسيطر الآلة على العالم ولا يبقى للبشر شيء من هذا المستقبل! أم أن هذا كله في أفلام وروايات الخيال العلمي فقط؟ والواقع أن الذكاء الاصطناعي سيساعد البشر في عيش حياة هنيئة وسعيدة؟
الحقيقة أن الآلة لا تفكر ولا تريد السيطرة على العالم، هي فقط تحلل وتتعلم من البيانات التي يغذيها البشر، إذا أصبح هناك خطأ فالبيانات هي المسؤول الأول وليس الآلة. ولكن، كيف لنا أن نضمن عالم لا يسيء استخدام هذه الأنظمة؟ يجب أولًا أن نحدد أهم الانتهاكات الأخلاقية التي ترتكبها هذه الأنظمة.
تتجلى الكثير من هذه الانتهاكات في أنظمة التعرف الوجه التي تستخدم في بعض الدول مثل الصين لتتعرف على الأقلية المسلمة هناك وتتحكم بهم، أو بعض المواقع التي تتيح لك أن تبحث عن صورة أي شخص وتستخرج كم هائل من المعلومات عنه من الإنترنت. كيف سيصبح المستقبل إذا كان وجهك فقط وسيلة لمعلومات خاصة أخرى؟
الحلقة “107” من بودكاست أرباع مع فهد الحازمي عن مسؤولية الذكاء الاصطناعي الأخلاقية.
شكرًا لكم على 1,000,000 استماع! يهمنا فعلًا تقييمكم بودكاست على iTunes، وتستطيع أن تقترح ضيف ل بودكاست أرباع بمراسلة الوليد على بريده الإلكتروني: [email protected]
تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندرويد.
الروابط:
@fahd09 - فهد على تويتر
المسؤولية الأخلاقية أمام أنظمة الذكاء الاصطناعي - مقالة فهد على ثمانية
See omnystudio.com/listener for privacy information.

3,756 Listeners

1,100 Listeners

75 Listeners

446 Listeners

399 Listeners

454 Listeners

766 Listeners

146 Listeners

24 Listeners

988 Listeners

120 Listeners

284 Listeners

15 Listeners

10 Listeners

0 Listeners

0 Listeners

2 Listeners

9 Listeners

0 Listeners

22 Listeners

0 Listeners

0 Listeners