81% भारतीय कंपनियों के पास अपने AI सिस्टम की सुरक्षा मॉनिटरिंग ठीक से नहीं है, और यही लापरवाही आने वाले सालों में बड़े साइबर हमलों की वजह बन सकती है। AI पर तेजी से खर्च तो हो रहा है, लेकिन उसे सुरक्षित रखने के लिए ज़रूरी गवर्नेंस, मॉनिटरिंग और रिस्क कंट्रोल अभी भी बेहद कमज़ोर हैं
भारत में कंपनियां AI को धड़ाधड़ अपना रही हैं, लेकिन सुरक्षा के मोर्चे पर एक खतरनाक खालीपन साफ दिख रहा है। ज़्यादातर संगठन नए‑नए AI टूल लगा तो रहे हैं, मगर यह देखने‑समझने के लिए कि ये सिस्टम क्या कर रहे हैं, कौन‑सा डेटा छू रहे हैं और कहां गलती कर रहे हैं – कोई मजबूत निगरानी व्यवस्था ही नहीं है
AI तेज़ी से बढ़ रहा, सुरक्षा पीछे छूट रही
अल्वारेज़ एंड मार्सल की एक ताज़ा रिपोर्ट के मुताबिक, भारत की 81% कंपनियों के पास AI सिस्टम के लिए प्रभावी ट्रैकिंग और मॉनिटरिंग फ्रेमवर्क नहीं है। यानी मॉडल चल रहे हैं, फैसले ले रहे हैं, लेकिन उनके आउटपुट, डेटा यूज़ और रिस्क पर लगातार नज़र रखने वाला कोई ढांचा ही नहीं है
रिपोर्ट बताती है कि सिर्फ करीब 15% कंपनियां ही ऐसे स्तर पर पहुंची हैं जहां AI का एंटरप्राइज़‑वाइड, यानी पूरे संगठन में, बड़े पैमाने पर इस्तेमाल हो रहा हो। दिलचस्प बात यह है कि जिन संगठनों ने AI में सबसे ज्यादा निवेश किया है, उनमें भी सुरक्षा और गवर्नेंस का ढांचा अक्सर पीछे रह जाता है
हेडलाइन तो चमकदार, पण बैकएंड में अंधेरा
आज ज्यादातर सेक्टर – बैंकिंग, टेक, हेल्थकेयर, मैन्युफैक्चरिंग, रिटेल – सभी AI पर दांव लगा चुके हैं। फ्रॉड डिटेक्शन से लेकर कस्टमर चर्न एनालिसिस और हेल्थकेयर क्लेम प्रोसेसिंग तक, हर जगह मॉडल तैनात हैं, लेकिन कई जगह ये “ब्लैक बॉक्स” की तरह काम कर रहे हैं – न लॉगिंग ठीक से, न अलर्टिंग, न ऑडिट ट्रेल।
रिपोर्ट में यह भी सामने आया कि करीब 60% कंपनियों ने कागज़ पर तो AI गवर्नेंस की बेसिक पॉलिसी बना रखी है, लेकिन असली खेल वहां फेल हो जाता है जहां बात डीटेल्ड रिस्क असेसमेंट और प्रैक्टिकल इम्प्लीमेंटेशन की आती है – यहां महज़ करीब 19% कंपनियां ही सीरियस तैयारी के साथ दिखती हैं
सिक्योरिटी ब्लाइंड स्पॉट: जहां से खतरा अंदर घुसता है
AI सिस्टम के पूरे लाइफसाइकल में कई ऐसे ब्लाइंड स्पॉट हैं जहां से खतरे चुपचाप घुस सकते हैं।
डेटा पॉइज़निंग और हॉल्यूसीनेशन का रिस्क
– बहुत कम कंपनियों ने यह व्यवस्था बनाई है कि ट्रेनिंग डेटा अगर गड़बड़ या छेड़छाड़ वाला हो तो उसे पकड़ा कैसे जाएगा।
– कई संगठनों के पास AI “हॉल्यूसीनेशन” – यानी मॉडल द्वारा झूठे या भ्रामक आउटपुट – को पकड़ने व कंट्रोल करने की कोई मजबूत क्षमता नहीं है, जबकि बिज़नेस‑क्रिटिकल फैसलों में ये आउटपुट सीधे इस्तेमाल हो रहे हैं।
सोचिए, अगर किसी बैंक में AI मॉडल गलती से गलत रिस्क प्रोफाइलिंग कर दे या किसी बीमा कंपनी का मॉडल गलत क्लेम रिजेक्ट कर दे तो असर सीधे आम ग्राहक पर पड़ता है। लेकिन अंदरूनी सिस्टम होने के नाम पर इन मॉडलों की सिक्योरिटी और वैलिडेशन को अक्सर हल्के में लिया जाता है।
‘इन‑हाउस’ ऐप्स पर ढिलाई
रिपोर्ट में विशेषज्ञों ने यह भी बताया कि इंटरनल AI ऐप्लिकेशन – जैसे HR एनालिटिक्स, इंटर्नल हेल्थकेयर क्लेम टूल, बैकएंड प्रोसेस ऑटोमेशन – पर कंपनियां कम सतर्क रहती हैं। वजह साफ है: इन्हें “पब्लिक फेसिंग” नहीं माना जाता, इसलिए मान लिया जाता है कि डेटा सिक्योरिटी और प्राइवेसी की जरूरत यहां कम है, जबकि इन्हीं सिस्टम में सबसे संवेदनशील पर्सनल डेटा घूमता रहता है।
पॉलिसी आगे, ज़मीन पर लैग
भारत में AI को लेकर पॉलिसी लेवल पर गति तेज हो चुकी है। सरकार की ओर से जारी AI गवर्नेंस गाइडलाइंस और डेटा प्रोटेक्शन कानूनों के बाद साफ संकेत है कि आने वाले समय में रेगुलेशन और सख़्त होगा।
लेकिन ग्राउंड रियलिटी यह है कि कॉर्पोरेट सेक्टर में इन गाइडलाइंस को प्रोसेस, टीम और टेक्निकल कंट्रोल में बदलने की रफ्तार काफी धीमी है। कई कंपनियां अभी भी “वेट एंड वॉच” मोड में हैं – पहले रेगुलेटर क्या बोलेगा, फिर पूरी तरह कदम उठाएंगे।