81% भारतीय कंपनियां बिना ‘AI नज़रबान’ के चल रहीं, बड़ा साइबर रिस्क दरवाज़े पर

81% भारतीय कंपनियों के पास अपने AI सिस्टम की सुरक्षा मॉनिटरिंग ठीक से नहीं है, और यही लापरवाही आने वाले सालों में बड़े साइबर हमलों की वजह बन सकती है। AI पर तेजी से खर्च तो हो रहा है, लेकिन उसे सुरक्षित रखने के लिए ज़रूरी गवर्नेंस, मॉनिटरिंग और रिस्क कंट्रोल अभी भी बेहद कमज़ोर हैं ​

भारत में कंपनियां AI को धड़ाधड़ अपना रही हैं, लेकिन सुरक्षा के मोर्चे पर एक खतरनाक खालीपन साफ दिख रहा है। ज़्यादातर संगठन नए‑नए AI टूल लगा तो रहे हैं, मगर यह देखने‑समझने के लिए कि ये सिस्टम क्या कर रहे हैं, कौन‑सा डेटा छू रहे हैं और कहां गलती कर रहे हैं – कोई मजबूत निगरानी व्यवस्था ही नहीं है ​

AI तेज़ी से बढ़ रहा, सुरक्षा पीछे छूट रही

अल्वारेज़ एंड मार्सल की एक ताज़ा रिपोर्ट के मुताबिक, भारत की 81% कंपनियों के पास AI सिस्टम के लिए प्रभावी ट्रैकिंग और मॉनिटरिंग फ्रेमवर्क नहीं है। यानी मॉडल चल रहे हैं, फैसले ले रहे हैं, लेकिन उनके आउटपुट, डेटा यूज़ और रिस्क पर लगातार नज़र रखने वाला कोई ढांचा ही नहीं है ​

रिपोर्ट बताती है कि सिर्फ करीब 15% कंपनियां ही ऐसे स्तर पर पहुंची हैं जहां AI का एंटरप्राइज़‑वाइड, यानी पूरे संगठन में, बड़े पैमाने पर इस्तेमाल हो रहा हो। दिलचस्प बात यह है कि जिन संगठनों ने AI में सबसे ज्यादा निवेश किया है, उनमें भी सुरक्षा और गवर्नेंस का ढांचा अक्सर पीछे रह जाता है ​

हेडलाइन तो चमकदार, पण बैकएंड में अंधेरा

आज ज्यादातर सेक्टर – बैंकिंग, टेक, हेल्थकेयर, मैन्युफैक्चरिंग, रिटेल – सभी AI पर दांव लगा चुके हैं। फ्रॉड डिटेक्शन से लेकर कस्टमर चर्न एनालिसिस और हेल्थकेयर क्लेम प्रोसेसिंग तक, हर जगह मॉडल तैनात हैं, लेकिन कई जगह ये “ब्लैक बॉक्स” की तरह काम कर रहे हैं – न लॉगिंग ठीक से, न अलर्टिंग, न ऑडिट ट्रेल।​

रिपोर्ट में यह भी सामने आया कि करीब 60% कंपनियों ने कागज़ पर तो AI गवर्नेंस की बेसिक पॉलिसी बना रखी है, लेकिन असली खेल वहां फेल हो जाता है जहां बात डीटेल्ड रिस्क असेसमेंट और प्रैक्टिकल इम्प्लीमेंटेशन की आती है – यहां महज़ करीब 19% कंपनियां ही सीरियस तैयारी के साथ दिखती हैं ​

सिक्योरिटी ब्लाइंड स्पॉट: जहां से खतरा अंदर घुसता है

AI सिस्टम के पूरे लाइफसाइकल में कई ऐसे ब्लाइंड स्पॉट हैं जहां से खतरे चुपचाप घुस सकते हैं।​

डेटा पॉइज़निंग और हॉल्यूसीनेशन का रिस्क

– बहुत कम कंपनियों ने यह व्यवस्था बनाई है कि ट्रेनिंग डेटा अगर गड़बड़ या छेड़छाड़ वाला हो तो उसे पकड़ा कैसे जाएगा।​
– कई संगठनों के पास AI “हॉल्यूसीनेशन” – यानी मॉडल द्वारा झूठे या भ्रामक आउटपुट – को पकड़ने व कंट्रोल करने की कोई मजबूत क्षमता नहीं है, जबकि बिज़नेस‑क्रिटिकल फैसलों में ये आउटपुट सीधे इस्तेमाल हो रहे हैं।​

सोचिए, अगर किसी बैंक में AI मॉडल गलती से गलत रिस्क प्रोफाइलिंग कर दे या किसी बीमा कंपनी का मॉडल गलत क्लेम रिजेक्ट कर दे तो असर सीधे आम ग्राहक पर पड़ता है। लेकिन अंदरूनी सिस्टम होने के नाम पर इन मॉडलों की सिक्योरिटी और वैलिडेशन को अक्सर हल्के में लिया जाता है।​

‘इन‑हाउस’ ऐप्स पर ढिलाई

रिपोर्ट में विशेषज्ञों ने यह भी बताया कि इंटरनल AI ऐप्लिकेशन – जैसे HR एनालिटिक्स, इंटर्नल हेल्थकेयर क्लेम टूल, बैकएंड प्रोसेस ऑटोमेशन – पर कंपनियां कम सतर्क रहती हैं। वजह साफ है: इन्हें “पब्लिक फेसिंग” नहीं माना जाता, इसलिए मान लिया जाता है कि डेटा सिक्योरिटी और प्राइवेसी की जरूरत यहां कम है, जबकि इन्हीं सिस्टम में सबसे संवेदनशील पर्सनल डेटा घूमता रहता है।​

पॉलिसी आगे, ज़मीन पर लैग

भारत में AI को लेकर पॉलिसी लेवल पर गति तेज हो चुकी है। सरकार की ओर से जारी AI गवर्नेंस गाइडलाइंस और डेटा प्रोटेक्शन कानूनों के बाद साफ संकेत है कि आने वाले समय में रेगुलेशन और सख़्त होगा।​

लेकिन ग्राउंड रियलिटी यह है कि कॉर्पोरेट सेक्टर में इन गाइडलाइंस को प्रोसेस, टीम और टेक्निकल कंट्रोल में बदलने की रफ्तार काफी धीमी है। कई कंपनियां अभी भी “वेट एंड वॉच” मोड में हैं – पहले रेगुलेटर क्या बोलेगा, फिर पूरी तरह कदम उठाएंगे।​

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Scroll to Top