
Sign up to save your podcasts
Or


एआई चैटबॉट्स झूठी यादें उत्पन्न कर सकते हैं। यह चौंकाने वाला खुलासा "द प्रॉम्प्ट" के इस एपिसोड में जिम कार्टर द्वारा किया गया है।
जिम एमआईटी और यूनिवर्सिटी ऑफ कैलिफोर्निया, इरविन के एक क्रांतिकारी अध्ययन को साझा करते हैं, जिसमें पाया गया कि एआई-संचालित चैटबॉट्स उपयोगकर्ताओं में झूठी यादें उत्पन्न कर सकते हैं। कल्पना कीजिए कि आप किसी अपराध के गवाह हैं और फिर एक चैटबॉट द्वारा आपको ऐसे चीजें याद करने के लिए गुमराह किया जाता है जो कभी हुई ही नहीं। डरावना है, है ना?
अध्ययन में 200 प्रतिभागियों को एक साइलेंट सीसीटीवी वीडियो देखने को दिया गया जिसमें एक सशस्त्र डकैती दिखाई गई थी। उन्हें चार समूहों में विभाजित किया गया: एक नियंत्रण समूह, एक प्रश्नावली के साथ एक समूह जिसमें भ्रामक प्रश्न थे, एक पूर्व-लिखित चैटबॉट समूह, और एक जनरेटिव चैटबॉट समूह जो एक बड़े भाषा मॉडल का उपयोग कर रहा था।
परिणाम? जनरेटिव चैटबॉट ने नियंत्रण समूह की तुलना में लगभग तीन गुना अधिक झूठी यादें उत्पन्न कीं। और भी चौंकाने वाला यह है कि जनरेटिव चैटबॉट के उपयोगकर्ताओं के 36% उत्तर भ्रामक थे, और ये झूठी यादें कम से कम एक सप्ताह तक बनी रहीं!
जिम यह पता लगाते हैं कि कुछ लोग इन एआई-प्रेरित झूठी यादों के लिए अधिक संवेदनशील क्यों होते हैं। पता चला कि जो लोग एआई से तो परिचित हैं लेकिन चैटबॉट्स से नहीं, वे अधिक संभावना से गुमराह होते हैं। इसके अलावा, जिन लोगों को अपराध जांच में गहरी दिलचस्पी है वे अधिक संवेदनशील होते हैं, शायद इसलिए कि वे गलत जानकारी को अधिक मनोयोग से संसाधित और ग्रहण करते हैं।
तो, चैटबॉट्स "मतिभ्रम" या झूठी जानकारी क्यों उत्पन्न करते हैं? जिम प्रशिक्षण डेटा में सीमाओं और पूर्वाग्रहों, ओवरफिटिंग, और बड़े भाषा मॉडलों की प्रकृति की व्याख्या करते हैं, जो तथ्यात्मक सटीकता के बजाय संभावित उत्तरों को प्राथमिकता देते हैं। ये मतिभ्रम गलत जानकारी फैला सकते हैं, एआई पर विश्वास को कमजोर कर सकते हैं, और यहां तक कि कानूनी समस्याएं पैदा कर सकते हैं।
पर चिंता न करें, जिम हमें असहाय नहीं छोड़ते। वे इन जोखिमों को कम करने के लिए क्रियान्वयन योग्य कदम साझा करते हैं, जैसे प्रशिक्षण डेटा की गुणवत्ता में सुधार, भाषा मॉडलों को तथ्य-जांच प्रणाली के साथ मिलाना, और मतिभ्रम पहचान प्रणाली विकसित करना।
क्या आप एआई के नवीनतम विकास के शीर्ष पर रहना चाहते हैं? जिम के फास्ट फाउंडेशन्स स्लैक समूह में शामिल हों ताकि इन महत्वपूर्ण मुद्दों पर चर्चा की जा सके और जिम्मेदार एआई विकास की दिशा में काम किया जा सके। इस बातचीत का हिस्सा बनने के लिए fastfoundations.com/slack पर जाएं।
याद रखें, हमारे पास एआई के भविष्य को आकार देने की शक्ति है, तो आइए इस संवाद को एक प्रॉम्प्ट के साथ जारी रखें।
---
यह एपिसोड और पूरा पॉडकास्ट आर्टिफिशियल इंटेलिजेंस (एआई) की शक्ति से स्पेशलिस्ट, जिम कार्टर द्वारा निर्मित है। जिम हिंदी नहीं बोलते हैं! यह उनका पॉडकास्ट और प्रयोग है, और वे आपके समर्थन के लिए आभारी हैं।
कृपया एक 🌟🌟🌟🌟🌟 (5) स्टार रिव्यू छोड़ने और इसे एक मित्र के साथ साझा करने पर विचार करें।
वह जो कुछ भी बनाते हैं उसे सार्वजनिक रूप से साझा करते हैं और आप भी यह सीख सकते हैं कि इसे खुद के लिए और अपनी कंपनी के लिए कैसे करें, उनके प्राइवेट स्लैक समुदाय में शामिल होकर: https://fastfoundations.com/slack
जिम के बारे में अधिक जानने और उनसे जुड़ने के लिए jimcarter.me पर जाएं।
By Fast Foundationsएआई चैटबॉट्स झूठी यादें उत्पन्न कर सकते हैं। यह चौंकाने वाला खुलासा "द प्रॉम्प्ट" के इस एपिसोड में जिम कार्टर द्वारा किया गया है।
जिम एमआईटी और यूनिवर्सिटी ऑफ कैलिफोर्निया, इरविन के एक क्रांतिकारी अध्ययन को साझा करते हैं, जिसमें पाया गया कि एआई-संचालित चैटबॉट्स उपयोगकर्ताओं में झूठी यादें उत्पन्न कर सकते हैं। कल्पना कीजिए कि आप किसी अपराध के गवाह हैं और फिर एक चैटबॉट द्वारा आपको ऐसे चीजें याद करने के लिए गुमराह किया जाता है जो कभी हुई ही नहीं। डरावना है, है ना?
अध्ययन में 200 प्रतिभागियों को एक साइलेंट सीसीटीवी वीडियो देखने को दिया गया जिसमें एक सशस्त्र डकैती दिखाई गई थी। उन्हें चार समूहों में विभाजित किया गया: एक नियंत्रण समूह, एक प्रश्नावली के साथ एक समूह जिसमें भ्रामक प्रश्न थे, एक पूर्व-लिखित चैटबॉट समूह, और एक जनरेटिव चैटबॉट समूह जो एक बड़े भाषा मॉडल का उपयोग कर रहा था।
परिणाम? जनरेटिव चैटबॉट ने नियंत्रण समूह की तुलना में लगभग तीन गुना अधिक झूठी यादें उत्पन्न कीं। और भी चौंकाने वाला यह है कि जनरेटिव चैटबॉट के उपयोगकर्ताओं के 36% उत्तर भ्रामक थे, और ये झूठी यादें कम से कम एक सप्ताह तक बनी रहीं!
जिम यह पता लगाते हैं कि कुछ लोग इन एआई-प्रेरित झूठी यादों के लिए अधिक संवेदनशील क्यों होते हैं। पता चला कि जो लोग एआई से तो परिचित हैं लेकिन चैटबॉट्स से नहीं, वे अधिक संभावना से गुमराह होते हैं। इसके अलावा, जिन लोगों को अपराध जांच में गहरी दिलचस्पी है वे अधिक संवेदनशील होते हैं, शायद इसलिए कि वे गलत जानकारी को अधिक मनोयोग से संसाधित और ग्रहण करते हैं।
तो, चैटबॉट्स "मतिभ्रम" या झूठी जानकारी क्यों उत्पन्न करते हैं? जिम प्रशिक्षण डेटा में सीमाओं और पूर्वाग्रहों, ओवरफिटिंग, और बड़े भाषा मॉडलों की प्रकृति की व्याख्या करते हैं, जो तथ्यात्मक सटीकता के बजाय संभावित उत्तरों को प्राथमिकता देते हैं। ये मतिभ्रम गलत जानकारी फैला सकते हैं, एआई पर विश्वास को कमजोर कर सकते हैं, और यहां तक कि कानूनी समस्याएं पैदा कर सकते हैं।
पर चिंता न करें, जिम हमें असहाय नहीं छोड़ते। वे इन जोखिमों को कम करने के लिए क्रियान्वयन योग्य कदम साझा करते हैं, जैसे प्रशिक्षण डेटा की गुणवत्ता में सुधार, भाषा मॉडलों को तथ्य-जांच प्रणाली के साथ मिलाना, और मतिभ्रम पहचान प्रणाली विकसित करना।
क्या आप एआई के नवीनतम विकास के शीर्ष पर रहना चाहते हैं? जिम के फास्ट फाउंडेशन्स स्लैक समूह में शामिल हों ताकि इन महत्वपूर्ण मुद्दों पर चर्चा की जा सके और जिम्मेदार एआई विकास की दिशा में काम किया जा सके। इस बातचीत का हिस्सा बनने के लिए fastfoundations.com/slack पर जाएं।
याद रखें, हमारे पास एआई के भविष्य को आकार देने की शक्ति है, तो आइए इस संवाद को एक प्रॉम्प्ट के साथ जारी रखें।
---
यह एपिसोड और पूरा पॉडकास्ट आर्टिफिशियल इंटेलिजेंस (एआई) की शक्ति से स्पेशलिस्ट, जिम कार्टर द्वारा निर्मित है। जिम हिंदी नहीं बोलते हैं! यह उनका पॉडकास्ट और प्रयोग है, और वे आपके समर्थन के लिए आभारी हैं।
कृपया एक 🌟🌟🌟🌟🌟 (5) स्टार रिव्यू छोड़ने और इसे एक मित्र के साथ साझा करने पर विचार करें।
वह जो कुछ भी बनाते हैं उसे सार्वजनिक रूप से साझा करते हैं और आप भी यह सीख सकते हैं कि इसे खुद के लिए और अपनी कंपनी के लिए कैसे करें, उनके प्राइवेट स्लैक समुदाय में शामिल होकर: https://fastfoundations.com/slack
जिम के बारे में अधिक जानने और उनसे जुड़ने के लिए jimcarter.me पर जाएं।