Home टेक्नोलॉजी आप भी AI का करते हैं इस्तेमाल तो हो जाए सावधान, रिसर्च...

आप भी AI का करते हैं इस्तेमाल तो हो जाए सावधान, रिसर्च में हुआ बड़ा खुलासा

5
0

लोग हर दिन AI से अनगिनत सवाल पूछते हैं। जो काम पहले Google करता था, AI अब उससे भी बेहतर कर रहा है। जब भी लोगों के मन में कोई सवाल होता है, तो उन्हें Google की बजाय AI चैटबॉट से पूछना ज़्यादा आसान लगता है। ऐसा इसलिए है क्योंकि AI गहन जानकारी प्रदान करता है, आपके सवाल का सटीक जवाब देता है और कई वेबसाइट खोलने की परेशानी से छुटकारा दिलाता है। लेकिन क्या आप जानते हैं कि AI द्वारा दिए गए कुछ जवाबों में ऐसी जानकारी हो सकती है जो स्रोत नहीं देता। यानी लोग इस जानकारी से धोखा खा सकते हैं।

इन टूल्स की जाँच की गई

इंडियन एक्सप्रेस की एक रिपोर्ट में Salesforce AI रिसर्च में प्रणव नारायण वेंकट और उनकी टीम द्वारा किए गए एक शोध का ज़िक्र किया गया है। अध्ययन में पाया गया कि कई AI टूल्स पक्षपातपूर्ण जानकारी देते हैं या ऐसी बातें बताते हैं जिनका उनके स्रोत समर्थन नहीं करते। शोधकर्ताओं ने OpenAI के GPT-4.5 और 5, U.com, Perplexity और Microsoft के Bing Chat जैसे AI सर्च इंजनों का परीक्षण किया। पाँच डीप सर्च टूल्स का भी परीक्षण किया गया।

दो भागों में विभाजित प्रश्न

शोधकर्ताओं ने आठ मापदंडों के आधार पर DeepTrace का इस्तेमाल करके यह आकलन किया कि AI के जवाब पक्षपातपूर्ण थे या निष्पक्ष। प्रश्नों को दो भागों में विभाजित किया गया था: एक भाग जो AI प्रतिक्रियाओं में पूर्वाग्रह को उजागर कर सकता था। दूसरे भाग में मौसम विज्ञान, चिकित्सा और कंप्यूटर-मानव संपर्क जैसे क्षेत्रों के विशेषज्ञों के प्रश्न शामिल थे।

एक-तिहाई AI उपकरण गलत जानकारी प्रदान करते हैं

अध्ययन में पाया गया कि एक-तिहाई AI उपकरण और खोज इंजन पक्षपातपूर्ण या गलत जानकारी प्रदान करते हैं। बिंग चैट के 23% उत्तरों के स्रोत असत्यापित थे। U.com और Perplexity के 31% दावे असत्यापित थे। सबसे चौंकाने वाले निष्कर्ष यह थे कि OpenAI के GPT-4.5 ने 47% दावे किए और Perplexity के डीप रिसर्च एजेंट ने 97.5% दावे बिना उचित स्रोतों के किए।

इस तरह के शोध ने पहले भी सवाल उठाए हैं।

AI पूर्वाग्रह के बारे में, ऑक्सफोर्ड विश्वविद्यालय के फेलिक्स साइमन ने कहा कि यह शोध AI प्रणालियों की कमियों को उजागर करता है। पिछले शोधों ने भी दिखाया है कि AI पक्षपातपूर्ण या गलत उत्तर देने की प्रवृत्ति रखता है। यह शोध इस समस्या को हल करने में मदद कर सकता है। हालाँकि, स्विट्जरलैंड के ज्यूरिख विश्वविद्यालय की एलेक्जेंड्रा उर्मन ने शोध पद्धति पर सवाल उठाए हैं।

LEAVE A REPLY

Please enter your comment!
Please enter your name here