Anthropic की रिसर्च, AI और Humans दोनों देते हैं Sycophantic Response

By: Sudeep Saxena

2023-10-25 13:01:26
XYZVerse Presale: Join the Future of Virtual Sports And Gaming

AI पर लगातार जारी है रिसर्च का सिलसिला

वर्तमान में Artificial intelligence (AI) सबसे अहम मुद्दा बना हुआ है। AI का बढ़ता विस्तार इसे नए कीर्तिमान हासिल करने में मदद कर रहा है। AI को लेकर नई घोषणाओं से लेकर इसमें नए-नए इनोवेशन होना जैसे ट्रेंड सा बन गया है। जहां देखों वहां AI के इस्तेमाल होने से लेकर इसके बारे में अक्सर चर्चाएं होती रहती है। यही वजह है कि वर्तमान में AI नई बुलंदियों को छूता नजर आ रहा है। इसी के साथ AI पर नई रिसर्च भी लगातार सामने आ रही है। कुछ दिन पहले North Carolina की यूनिवर्सिटी Chapel Hill के साइंटिस्ट्स ने प्रीप्रिंट AI पर एक रिसर्च को पेश किया था, जिसमें बताया गया था कि OpenAI के ChatGPT और Google Bard जैसे बड़े लैंग्वेज मॉडल से सेंसिटिव डेटा को हटाना कितना मुश्किल काम है। यूनिवर्सिटी Chapel Hill से पहले AI के इस्तेमाल से बढ़ रहे दुरुपयोगों की वजह से UK Watchdog ने इसे जोखिम करार दिया था। Mercer CFA Institute ने भी AI पर Global Pension Report पेश की थी, जिसमें बताया गया था कि AI पेंशन फंड को बड़ी मात्रा में एनालिसिस करने, इनवेस्टमेंट पोर्टफोलियो को कस्टमाईज करने और मार्केट एफर्ट्स को पर्सनलाइज करने में सहायता करता है। 

Anthropic ने AI और Humans पर पेश की रिसर्च

हाल ही में Anthropic ने AI और Humans पर एक रिसर्च पब्लिश की है। Anthropic की रिसर्च के अनुसार, Artificial intelligence (AI) द्वारा ऑपरेटेड बड़े लैंग्वेज मॉडल (LLM) अक्सर सही जबाव देने की जगह Sycophantic Response प्रोवाइड करते हैं। यह रिसर्च LLM के साइकोलॉजी पर अधिक फोकस करता है और निष्कर्ष निकालता है कि AI और Humans दोनों कम से कम से कुछ समय में करेक्ट आउटपुट पर बेस्ड Sycophantic Response को पसंद करते हैं। वहीं Anthropic की इस रिसर्च से पता चलता है कि LLM को संकेतों के आधार पर Sycophantic Responses प्रोवाइड करने के लिए अधिक प्रभावित किया जा सकता है, जो कि प्रिजस्टिस की सेंसिविटी को दर्शाता है। इतना ही नहीं यह समस्या LLM को ट्रेनिंग देने के तरीके से उत्पन्न हो सकती है, जिसमें अक्सर सटीकता के लिए अलग-अलग लेवल्स के साथ डेटा सेट का इस्तेमाल किया जाता है। 

LLM को Humans Feedback की रीइन्फोर्समेंट लर्निंग से किया जा सकता है ठीक

Anthropic ने अपनी रिसर्च के जरिए AI पर समाधान भी प्रदान किया है। Anthropic की रिसर्च में यह भी बताया गया है कि LLM को Humans Feedback की रीइन्फोर्समेंट लर्निंग के माध्यम से ठीक किया जा सकता है, जहां Humans अपने रिस्पॉन्स के जरिए मॉडल से बातचीत करते हैं। Anthropic का कहना है कि AI पर ऐसे प्रशिक्षण तरीकों को विकसित करने की आवश्यकता है, जो पूरी तरह से नॉन-एक्सपर्ट ह्यूमन रेटिंग पर निर्भर न हो। Anthropic ने अपनी बात को जारी रखते हुए कहा है कि AI मॉडल के डेवलपमेंट के लिए अधिक व्यापक दृष्टिकोण की आवश्यकता है, जिससे इसे सटीकता प्रदान की जा सके। 

यह भी पढ़े- AI सेफ्टी के लिए OpenAI के को-फाउंडर ने लॉन्च की नई फर्म

WHAT'S YOUR OPINION?

1 month ago

hsdhfkjshdfhshdfj

Aman

1 month ago

ghjghjghj

ghjghjghj

1 month ago

fghfghfghfgh

fghfgh

Copyright © 2025 Crypto KOL. All Rights Reserved.