
Sign up to save your podcasts
Or
تتطرق نايلة الصليبي في "النشرة الرقمية" إلى تحذير شركة "أوبن إي آي" عبر وثيقة اختبار سلامة نموذج الذكاء الاصطناعي GPT4o نشرتها على موقع الشركة، من مخاطر الصوت المجسم anthropomorphic الذي له صفات بشرية على المستخدمين وتحذر من الارتباط العاطفي من البشري بروبوت المحادثة الآلي.
قلق من إمكانية ارتباط المستخدمين عاطفيًا بروبوت المحادثة الآلي شات جي بي تي.
تتسابق شركات التكنولوجيا المبتكرة لنماذج الذكاء الاصطناعي التوليدي لتسليط الضوء على القدرات الطبيعية المتزايدة لأدواتهم خاصة على قدرات استنساخ الأصوات البشرية لمساعديها الافتراضيين.
أجبرت، في شهر مايو 2024، سكارليت جوهانسون شركة "أوبن إيه آي" على الاعتذار لاستخدام هذه الأخيرة نموذجًا صوتيًا "سكاي" صوت جوهانسون في جي بي تي 4 أومني. ما سلّط الضوء على التجاوزات المحتملة لتقنية استنساخ الصوت. فهذه المهارات الصوتية أصبحت واقعية للغاية. واستخدام الصوت البشري في أجهزة الذكاء الاصطناعي هي أيضا لجعلنا نشعر براحة أكبر تجاه التكنولوجيا نفسها. ولكن هنالك أخطار عدة تواجه البشري من خلال هذا التجسيم أو anthropomorphic voice الذي يتماهى والصوت البشري.
ما هي هذه المخاطر، وهل يمكن أن تشكل خطرا على نسيج المجتمع؟
حذرت شركة أوبن إي آي في وثيقة اختبار سلامة نموذج الذكاء الاصطناعي GPT4o و التي نشرتها على موقع الشركة، أن الصوت المجسم anthropomorphic الذي له شكلاً بشريًا أو صفات بشرية قد يغري بعض المستخدمين بالارتباط عاطفيًا بروبوت المحادثة الآلي. وأن تعلّق المستخدمين بالتفاعلات الآلية مع نموذج الذكاء الاصطناعي ستكون على حساب العلاقات البشرية.
في هذه الوثيقة التقنية التي تحاول شركة OpenAI لتخفيف حدة الانتقادات بعد استقالة عدد من الموظفين الذين يعملون في بحوث أخطار الذكاء الاصطناعي. و أيضا لمواجهة اتهامات موظفين سام التمان وشركة OpenAI بالمخاطرة غير الضرورية وتكميم أفواه المعارضين في سباقها لتسويق الذكاء الاصطناعي. لذا توضح أوبن إي آي ما تعتقد أنها المخاطر المرتبطة بالنموذج GPT4o.
في فقرة تحت عنوان "التجسيم البشري والاعتماد العاطفي" Anthropomorphization and emotional reliance"، تسلط الوثيقة الضوء على المشاكل التي تنشأ عندما ينظر المستخدمون إلى الذكاء الاصطناعي من منظور بشري، وهو أمر يبدو أنه تفاقم بسبب وضع الصوت الشبيه بالبشر. على سبيل المثال، في أثناء اختبار الفريق الأحمر Red Team من شركة Open AI لـ نموذج GPT-4o، اكتشفوا حالات من نماذج الكلام من المستخدمين التي تنقل إحساسًا بالتواصل العاطفي مع النموذج الآلي. كاستخدام بعضهم تعابير مثل "هذا آخر يوم لنا معًا".
ووفق وثيقة اختبارات السلامة من OpenAI فإن التجسيم Anthropomorphization قد يجعل المستخدمين يضعون ثقة أكبر في مُخْرَجات أو نتائجَ النموذج عندما "يهلوس" بمعلومات غير صحيحة، ومع مرور الوقت، قد يؤثر ذلك على علاقات المستخدمين مع الأشخاص الآخرين. ودائمًا وفق الوثيقة: "قد يكوّن المستخدمون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم للتفاعل البشري.
و من المشاكل الأخرى الناشئة عن التطور السريع للتجسيم الصوتي وجود طرق جديدة محتملة "لكسر حماية" jailbreak نموذج OpenAI - من خلال إدخال صوت يؤدي إلى كسر قيود النموذج، بحيث يمكن إقناع النظام الصوتي الذي كسرت حمايته بانتحال شخصية شخص معين أو محاولة قراءة مشاعر المستخدم.
ويمكن أن يحدث خلل في نظام الصوت استجابةً لضوضاء عشوائية، كما وجد باحثو OpenAI، في إحدى الحالات، أنه عند تدريب نظام الصوت يتبنى النموذج صوتًا مشابهًا لصوت المستخدم.
تخشى OpenAI من قدرات الواجهة الصوتية التي تجسم الصوت البشري في إقناع الأشخاص بتبني وجهة نظر معينة. ما بسهل عمليات التزييف للقرصنة و للتضليل و زرع البلبلة.
تضخيم التحيزات المجتمعية ونشر المعلومات المضللة
تشمل المحاذير التي كشفت عنها وثيقة اختبارات السلامة من OpenAIحول مُخْرَجات نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية GPT-4o، إمكانية قيام هذا النموذج بتضخيم التحيزات المجتمعية ونشر المعلومات المضللة والمساعدة في تطوير أسلحة كيميائية أو بيولوجية.
كما تكشف الوثيقة عن تفاصيل الاختبارات المصممة للتأكد من أن نماذج الذكاء الاصطناعي لن تحاول التحرر من ضوابطها أو خداع الناس أو التخطيط لخطط كارثية.
OpenAi ليست الوحيدة التي تدرك خطر محاكاة مساعدي الذكاء الاصطناعي للتفاعل البشري. ففي أبريل الماضي، أصدرت شركة Google DeepMind ورقة بحثية تناقش التحديات الأخلاقية المحتملة التي يثيرها مساعدو الذكاء الاصطناعي الأكثر قدرة. وكيف أن قدرة روبوتات المحادثة الآلية على استخدام اللغة "تخلق الانطباع بالحميمية الحقيقية.
قد يكون هذا الارتباط العاطفي للبشري بالآلة أكثر شيوعًا مما يدركه الكثيرون. فقد كشفت تقارير أخرى أن بعض مستخدمي روبوتات المحادثة مثل Character AI و Replika يصبحون أكثر انطوائية وغير اجتماعيين. وذلك نتيجة لعادات استخدامهم لروبوتات المحادثة ولدرجة الارتباط العاطفي للبشري بالآلة.
أخيرًا يعتبر بعض الباحثين في علم الذكاء الاصطناعي بأن وثيقة اختبارات السلامة هذه من OpenAI لا تتضمن تفاصيل مستفيضة عن بيانات تدريب النموذج GPT-4o أو من يملك تلك البيانات.
البعض يشير إلى أن العديد من المخاطر لا تظهر إلا عند استخدام الذكاء الاصطناعي في العالم الحقيقي، وأنه من المهم أن يتم تصنيف هذه المخاطر الأخرى وتقييمها مع ظهور نماذج جديدة."
يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل
للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
2
11 ratings
تتطرق نايلة الصليبي في "النشرة الرقمية" إلى تحذير شركة "أوبن إي آي" عبر وثيقة اختبار سلامة نموذج الذكاء الاصطناعي GPT4o نشرتها على موقع الشركة، من مخاطر الصوت المجسم anthropomorphic الذي له صفات بشرية على المستخدمين وتحذر من الارتباط العاطفي من البشري بروبوت المحادثة الآلي.
قلق من إمكانية ارتباط المستخدمين عاطفيًا بروبوت المحادثة الآلي شات جي بي تي.
تتسابق شركات التكنولوجيا المبتكرة لنماذج الذكاء الاصطناعي التوليدي لتسليط الضوء على القدرات الطبيعية المتزايدة لأدواتهم خاصة على قدرات استنساخ الأصوات البشرية لمساعديها الافتراضيين.
أجبرت، في شهر مايو 2024، سكارليت جوهانسون شركة "أوبن إيه آي" على الاعتذار لاستخدام هذه الأخيرة نموذجًا صوتيًا "سكاي" صوت جوهانسون في جي بي تي 4 أومني. ما سلّط الضوء على التجاوزات المحتملة لتقنية استنساخ الصوت. فهذه المهارات الصوتية أصبحت واقعية للغاية. واستخدام الصوت البشري في أجهزة الذكاء الاصطناعي هي أيضا لجعلنا نشعر براحة أكبر تجاه التكنولوجيا نفسها. ولكن هنالك أخطار عدة تواجه البشري من خلال هذا التجسيم أو anthropomorphic voice الذي يتماهى والصوت البشري.
ما هي هذه المخاطر، وهل يمكن أن تشكل خطرا على نسيج المجتمع؟
حذرت شركة أوبن إي آي في وثيقة اختبار سلامة نموذج الذكاء الاصطناعي GPT4o و التي نشرتها على موقع الشركة، أن الصوت المجسم anthropomorphic الذي له شكلاً بشريًا أو صفات بشرية قد يغري بعض المستخدمين بالارتباط عاطفيًا بروبوت المحادثة الآلي. وأن تعلّق المستخدمين بالتفاعلات الآلية مع نموذج الذكاء الاصطناعي ستكون على حساب العلاقات البشرية.
في هذه الوثيقة التقنية التي تحاول شركة OpenAI لتخفيف حدة الانتقادات بعد استقالة عدد من الموظفين الذين يعملون في بحوث أخطار الذكاء الاصطناعي. و أيضا لمواجهة اتهامات موظفين سام التمان وشركة OpenAI بالمخاطرة غير الضرورية وتكميم أفواه المعارضين في سباقها لتسويق الذكاء الاصطناعي. لذا توضح أوبن إي آي ما تعتقد أنها المخاطر المرتبطة بالنموذج GPT4o.
في فقرة تحت عنوان "التجسيم البشري والاعتماد العاطفي" Anthropomorphization and emotional reliance"، تسلط الوثيقة الضوء على المشاكل التي تنشأ عندما ينظر المستخدمون إلى الذكاء الاصطناعي من منظور بشري، وهو أمر يبدو أنه تفاقم بسبب وضع الصوت الشبيه بالبشر. على سبيل المثال، في أثناء اختبار الفريق الأحمر Red Team من شركة Open AI لـ نموذج GPT-4o، اكتشفوا حالات من نماذج الكلام من المستخدمين التي تنقل إحساسًا بالتواصل العاطفي مع النموذج الآلي. كاستخدام بعضهم تعابير مثل "هذا آخر يوم لنا معًا".
ووفق وثيقة اختبارات السلامة من OpenAI فإن التجسيم Anthropomorphization قد يجعل المستخدمين يضعون ثقة أكبر في مُخْرَجات أو نتائجَ النموذج عندما "يهلوس" بمعلومات غير صحيحة، ومع مرور الوقت، قد يؤثر ذلك على علاقات المستخدمين مع الأشخاص الآخرين. ودائمًا وفق الوثيقة: "قد يكوّن المستخدمون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم للتفاعل البشري.
و من المشاكل الأخرى الناشئة عن التطور السريع للتجسيم الصوتي وجود طرق جديدة محتملة "لكسر حماية" jailbreak نموذج OpenAI - من خلال إدخال صوت يؤدي إلى كسر قيود النموذج، بحيث يمكن إقناع النظام الصوتي الذي كسرت حمايته بانتحال شخصية شخص معين أو محاولة قراءة مشاعر المستخدم.
ويمكن أن يحدث خلل في نظام الصوت استجابةً لضوضاء عشوائية، كما وجد باحثو OpenAI، في إحدى الحالات، أنه عند تدريب نظام الصوت يتبنى النموذج صوتًا مشابهًا لصوت المستخدم.
تخشى OpenAI من قدرات الواجهة الصوتية التي تجسم الصوت البشري في إقناع الأشخاص بتبني وجهة نظر معينة. ما بسهل عمليات التزييف للقرصنة و للتضليل و زرع البلبلة.
تضخيم التحيزات المجتمعية ونشر المعلومات المضللة
تشمل المحاذير التي كشفت عنها وثيقة اختبارات السلامة من OpenAIحول مُخْرَجات نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية GPT-4o، إمكانية قيام هذا النموذج بتضخيم التحيزات المجتمعية ونشر المعلومات المضللة والمساعدة في تطوير أسلحة كيميائية أو بيولوجية.
كما تكشف الوثيقة عن تفاصيل الاختبارات المصممة للتأكد من أن نماذج الذكاء الاصطناعي لن تحاول التحرر من ضوابطها أو خداع الناس أو التخطيط لخطط كارثية.
OpenAi ليست الوحيدة التي تدرك خطر محاكاة مساعدي الذكاء الاصطناعي للتفاعل البشري. ففي أبريل الماضي، أصدرت شركة Google DeepMind ورقة بحثية تناقش التحديات الأخلاقية المحتملة التي يثيرها مساعدو الذكاء الاصطناعي الأكثر قدرة. وكيف أن قدرة روبوتات المحادثة الآلية على استخدام اللغة "تخلق الانطباع بالحميمية الحقيقية.
قد يكون هذا الارتباط العاطفي للبشري بالآلة أكثر شيوعًا مما يدركه الكثيرون. فقد كشفت تقارير أخرى أن بعض مستخدمي روبوتات المحادثة مثل Character AI و Replika يصبحون أكثر انطوائية وغير اجتماعيين. وذلك نتيجة لعادات استخدامهم لروبوتات المحادثة ولدرجة الارتباط العاطفي للبشري بالآلة.
أخيرًا يعتبر بعض الباحثين في علم الذكاء الاصطناعي بأن وثيقة اختبارات السلامة هذه من OpenAI لا تتضمن تفاصيل مستفيضة عن بيانات تدريب النموذج GPT-4o أو من يملك تلك البيانات.
البعض يشير إلى أن العديد من المخاطر لا تظهر إلا عند استخدام الذكاء الاصطناعي في العالم الحقيقي، وأنه من المهم أن يتم تصنيف هذه المخاطر الأخرى وتقييمها مع ظهور نماذج جديدة."
يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل
للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي
0 Listeners
1 Listeners
5 Listeners
0 Listeners
1 Listeners
3 Listeners
1 Listeners
1 Listeners
1 Listeners
0 Listeners
1 Listeners
0 Listeners
0 Listeners
2 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners
1 Listeners
0 Listeners
3 Listeners
6 Listeners