आर्टिफिशियल इंटेलिजेंस (एआई) कंपनी ओपनएआई के पास भारत में किशोर उपयोगकर्ताओं के लिए एक नया व्यापक सुरक्षा ढांचा है। भारत के लिए किशोर सुरक्षा ब्लूप्रिंट, इंडिया एआई इम्पैक्ट समिट से कुछ दिन पहले जारी किया गया है, जो आयु-जागरूक एआई व्यवहार, माता-पिता के नियंत्रण और जिसे ओपनएआई एआई-जनित बाल यौन शोषण सामग्री (सीएसएएम) और बाल यौन शोषण सामग्री (सीएसईएम) की उद्योग-अग्रणी रोकथाम कहता है, पर जोर देता है। इस ढांचे का एक महत्वपूर्ण तत्व यह समझ है कि “हम गोपनीयता और स्वतंत्रता से पहले सुरक्षा को प्राथमिकता देते हैं”, जो दृष्टिकोण के दार्शनिक अंशांकन को इंगित करता है।

फ्रेमवर्क नोट करता है, “किशोर एआई के साथ बड़े हो रहे हैं लेकिन अभी तक बड़े नहीं हुए हैं। हमारा मानना है कि चैटजीपीटी को उनसे वहीं मिलना चाहिए जहां वे हैं – जिस तरह से चैटजीपीटी 15 साल के बच्चे को प्रतिक्रिया देता है वह एक वयस्क को प्रतिक्रिया देने के तरीके से भिन्न होना चाहिए।” यह ओपनएआई के लिए तीन भाग के विकास में नवीनतम है, जो सितंबर में किशोर सुरक्षा और गोपनीयता सिद्धांतों को निर्धारित करने के साथ शुरू हुआ, नवंबर में पहला वैश्विक किशोर सुरक्षा ढांचा जारी किया गया, जिसके बाद दिसंबर में किशोर सुरक्षा के लिए एक मॉडल स्पेक अपडेट जारी किया गया। इस ब्लूप्रिंट का भारत-विशिष्ट पुनरावृत्ति यह समझने के लिए एआई मॉडल की आवश्यकता पर जोर देता है कि किशोर अभी भी वयस्क नहीं हैं, और तदनुसार प्रतिक्रिया देते हैं।
यह देखते हुए कि यह OpenAI के सबसे बड़े और सबसे तेजी से बढ़ते बाजारों में से एक है, भारत-विशिष्ट ब्लूप्रिंट अप्रासंगिक नहीं है। इसमें विविधता और स्थानीय बारीकियों को भी ध्यान में रखना होगा। ब्लूप्रिंट में 18 साल से कम उम्र के उपयोगकर्ताओं के लिए स्पष्ट रेलिंग की रूपरेखा दी गई है, जिसमें एआई सिस्टम शामिल हैं जो आत्महत्या या खुद को नुकसान पहुंचाने से बचते हैं, खतरनाक स्टंट की सुविधा देते हैं, अवैध पदार्थों तक पहुंच को सक्षम करते हैं, हानिकारक शरीर के आदर्शों को सुदृढ़ करते हैं, या ग्राफिक और इमर्सिव यौन या हिंसक परिदृश्यों की अनुमति देते हैं।
ओपनएआई, बेहतर सामग्री मॉडरेशन के प्रस्ताव से परे, एक संरचनात्मक और स्तरित रीडिज़ाइन की मांग करता है कि एआई प्लेटफॉर्म 18 वर्ष से कम उम्र के उपयोगकर्ताओं की पहचान, वर्गीकरण और व्यवहार कैसे करते हैं। आयु पूर्वानुमान प्रणाली, जिसका उपयोग ChatGPT करता है, सुर्खियों में है। “यह आपके खाते से जुड़े विभिन्न संकेतों को देखता है। उदाहरण के लिए, यह उन सामान्य विषयों को देख सकता है जिनके बारे में आप बात करते हैं या दिन के उस समय को देख सकते हैं जब आप चैटजीपीटी का उपयोग करते हैं,” तकनीकी दस्तावेज बताते हैं, हालांकि यह स्वीकार करते हुए कि “कोई भी सिस्टम सही नहीं है”।
माता-पिता के नियंत्रण, जैसे कि माता-पिता को अपने खाते को अपने किशोर के खाते से लिंक करने की अनुमति देना, ब्लैकआउट घंटे निर्धारित करना, साथ ही मेमोरी और चैट इतिहास को बंद करने की क्षमता, बच्चों को एआई के साथ बातचीत में सुरक्षित रखने के लिए महत्वपूर्ण है।
“हमारा मानना है कि एआई कंपनियों को किशोरों और वयस्कों के बीच अंतर करने के लिए गोपनीयता-सुरक्षात्मक, जोखिम-आधारित आयु अनुमान टूल का उपयोग करके अपने प्लेटफार्मों पर किशोरों की पहचान करनी चाहिए। आयु अनुमान से एआई कंपनियों को यह सुनिश्चित करने में मदद मिलेगी कि वे सही उपयोगकर्ताओं के लिए सही सुरक्षा लागू कर रहे हैं। यह आयु-उपयुक्त अनुभवों की सुविधा प्रदान करेगा,” रूपरेखा का प्रस्ताव है कि अधिक एआई कंपनियों को समान पद्धति अपनानी चाहिए, जिससे कुछ बिंदु पर एक उद्योग मानक तैयार किया जा सके।
भारत के लिए एक अनोखी चुनौती है, जो चीजों को जटिल बना सकती है – RATI फाउंडेशन की आदर्श इंटरनेट रिपोर्ट 2024-25 में कहा गया है कि 62% भारतीय किशोर साझा उपकरणों का उपयोग करते हैं। यह विशेषता, जो भारत के लिए अद्वितीय है, अधिकांश विश्व स्तर पर स्वरूपित डिजिटल सुरक्षा प्रणालियों में धारणाओं और तंत्रों को बाधित करती है, जो मुख्य बोली जाने वाली भाषा के रूप में अंग्रेजी के साथ व्यक्तिगत डिवाइस स्वामित्व को मानती है। साझा उपकरणों का उपयोग करने वाले भारतीय किशोर अक्सर उन उपयोगकर्ताओं के परिवार का हिस्सा होते हैं जो बहुभाषी भी होते हैं, जिससे पूर्वनिर्धारित अवधारणाएं और संदर्भ अप्रासंगिक हो जाते हैं।
अन्य एआई कंपनियों के पास भी बाल उपयोगकर्ता सुरक्षा के लिए नीति दिशानिर्देश हैं। Google का जेमिनी कुछ वार्तालापों को गेट करने के लिए आयु सत्यापन पद्धति का उपयोग करता है – यह आयु डेटा Android और YouTube प्रतिबंधों के साथ सिंक्रनाइज़ होता है। खोज और एआई प्रतिक्रियाओं में, स्पष्ट आत्म-नुकसान, यौन सामग्री, अवैध व्यवहार और ग्राफिक हिंसा को मौजूदा सुरक्षित खोज और मॉडरेशन परतों द्वारा फ़िल्टर किया जाता है जो जेनरेटिव प्रतिक्रियाओं में विस्तारित होते हैं।
मेटा, ओपनएआई की तरह, उपयोगकर्ताओं को अपना खाता सेट करने से पहले कम से कम 13 वर्ष का होना आवश्यक है। संदिग्ध नाबालिगों का पता लगाने के लिए मेटा उपयोगकर्ता मशीन लर्निंग, और 18 वर्ष से कम उम्र के उपयोगकर्ताओं के लिए जेनरेटिव एआई प्रतिक्रियाएं सुरक्षित, गैर-ग्राफिक और अक्सर गैर-निर्देशात्मक मोड में डिफ़ॉल्ट होती हैं।
प्रमुख प्रश्न अभी भी उठते हैं। क्या जेनरेटिव एआई सिस्टम जो ओपन-एंडेड, रचनात्मक और संदर्भ संचालित हैं, प्रमुख तत्वों को गायब किए बिना प्रतिबंधात्मक आयु-विशिष्ट अनुभव प्रदान करने में सक्षम हो सकते हैं? दूसरे, क्या उम्र का आकलन सांस्कृतिक और क्षेत्रीय बारीकियों जैसे कि विकासात्मक रुझान बनाम शारीरिक उम्र के साथ जुड़ा होने पर गलत हो सकता है?
जब OpenAI कहता है “किशोर AI के साथ बड़े हो रहे हैं लेकिन अभी तक वयस्क नहीं हुए हैं”, तो यह एक विवरण और चेतावनी दोनों है।
(टैग्सटूट्रांसलेट)ओपनएआई(टी)एआई पैरेंटल कंट्रोल(टी)एआई पैरेंटल कंट्रोल इंडिया(टी)चैटजीपीटी(टी)आर्टिफिशियल इंटेलिजेंस(टी)इंडिया एआई इम्पैक्ट समिट
Discover more from Star News 24 Live
Subscribe to get the latest posts sent to your email.
