देश

कभी डीपफेक पिक्‍चर तो कभी आवाज की नकल… यूरोप के AI एक्‍ट में ऐसा क्‍या है? भारत को जरूर करना चाहिए लागू

ये AI यानी आर्टिफिशियल इंटेलिजेंस का दौर है. जिस काम को करने में पहले घंटों का वक्‍त लगता था उसे एआई की मदद से चंद मिनटों में किया जा सकता है. हालांकि एआई के दौर में लोगों ने तकनीक का जितना फायदा उठाया है, इसके हमारे जीवन पर गलत प्रभाव भी तेजी से सामने आने लगे हैं. यूरोप ने दुनिया का पहला ऐसा कानून बनाया है, जिसके तहत आर्टिफिशियल इंटेलिजेंस के गलत इस्‍तेमाल पर एक्‍शन की बात कही गई है. AI का इस्‍तेमाल आपराधिक गतिविधियों में तेजी से होने लगा है. डीपफेक के जरिए अब किसी की भी अश्‍लील वीडियो बनाई जा सकती है. फोन पर मिलती जुलती आवाज से धोखाधड़ी भी इसका एक उदाहरण है.

यूरोपीय संघ ने इस खतरे को भांपते हुए अपने आर्टिफिशियल इंटेलिजेंस एक्ट में AI जोखिमों को बड़े स्‍तर पर प्रबंधित करने के लिए डिजाइन किया है. भारत सहित अन्य देश इससे बहुत कुछ सीख सकते हैं क्योंकि हम भी यह सुनिश्चित करने का प्रयास करते हैं कि AI सभी के लिए सुरक्षित और फायदेमंद हो. यूरोपीय संघ का AI कानून 1 अगस्त को लागू हो चुका है. यह कानून अलग-अलग AI प्रणालियों के लिए उनके द्वारा उत्पन्न जोखिम के स्तर के आधार पर जरूरतें तय करता है. AI सिस्टम लोगों के स्वास्थ्य, सुरक्षा या मानवाधिकारों के लिए जितना ज्‍यादा जोखिम पैदा करता है, उसे उतनी ही ज्‍यादा जरूरतों को पूरा करना होता है.

व्यक्तिगत निर्णयों में हेरफेर…
इस कानून में ज्‍यादा जोखिम वाली निषेद सिस्‍टम की एक लिस्‍ट है. इस सूची में वे AI सिस्टम शामिल हैं जो व्यक्तिगत निर्णयों में हेरफेर करने के लिए अवचेतन (सबकॉन्शियस) तकनीकों का उपयोग करते हैं. इसमें कानून के इंफोर्समेंट अधिकारियों द्वारा उपयोग किए जाने वाले रियल लाइफ फेस की पहचान करने वाले सिस्टम भी शामिल हैं. यह मौजूदा वक्‍त में चीन में उपयोग किए जाने वाले सिस्टम के समान हैं.

रिस्‍क मैनेजमेंट योजना…
सरकारी अधिकारियों या शिक्षा और स्वास्थ्य सेवा में उपयोग किए जाने वाले अन्‍य सिस्टम भी हाई रिस्‍क वाले माने जाते हैं. हालांकि ये बैन नहीं हैं, लेकिन उन्हें कई आवश्यकताओं का पालन करना होगा. उदाहरण के लिए, इन सिस्टम के पास अपनी रिस्‍क मैनेजमेंट योजना होनी चाहिए. साथ ही इसे क्‍वालिटी डाटा का सिस्‍टम की ट्रेनिंग, सटीकता, मजबूत साइबर सुरक्षा आवश्यकताओं को पूरा करना चाहिए. निश्चित स्तर की मानवीय निगरानी सुनिश्चित भी की जानी चाहिए.

AI चैटबॉट की पहले देनी होगी जानकारी…
कम जोखिम वाले AI सिस्टम, जैसे कि विभिन्न चैटबॉट, को केवल कुछ पारदर्शिता आवश्यकताओं का पालन करना होता है. उदाहरण के लिए, व्यक्तियों को बताया जाना चाहिए कि वे एक AI बॉट के साथ बातचीत कर रहे हैं, न कि किसी वास्तविक व्यक्ति के साथ. AI द्वारा उत्पन्न छवियों और पाठ में यह स्पष्टीकरण भी शामिल होना चाहिए कि वे AI द्वारा उत्पन्न किए गए हैं, न कि किसी मानव द्वारा. नामित यूरोपीय संघ और राष्ट्रीय प्राधिकरण निगरानी करेंगे कि यूरोपीय संघ के बाजार में उपयोग की जाने वाली AI प्रणालियां इन आवश्यकताओं की अनुपालन करती हैं या नहीं और गैर-अनुपालन के लिए जुर्माना जारी करेंगे.