एआई यानी आर्टिफिशियल इंटेलिजेंस जिस तेजी से हमारी ज़िंदगी में जगह बना रहा है, उसी तेजी से एक नया डर भी पैदा हो रहा है। यह डर है सच और झूठ के बीच की रेखा मिट जाने का। पहले जो चीज़ें सबूत मानी जाती थीं, आज वही सवालों के घेरे में हैं।
हाल ही में एक आईएएस अधिकारी को लेकर यह दावा सामने आया कि उन्होंने अपने काम को बेहतर दिखाने के लिए एआई से बनी तस्वीरों का इस्तेमाल किया और उसी आधार पर उन्हें राष्ट्रीय पुरस्कार मिल गया। बाद में अधिकारी ने सफाई दी कि एआई से बनी तस्वीरों का पुरस्कार से कोई लेना-देना नहीं था, वे सिर्फ जानकारी देने के लिए वेबसाइट पर डाली गई थीं।
मामला चाहे जो भी हो, असली सवाल यह नहीं है कि अधिकारी सही थे या गलत। असली चिंता यह है कि आज एआई इतनी सफाई से नकली चीज़ें बना रहा है कि आम इंसान के लिए असली और नकली में फर्क कर पाना बेहद मुश्किल होता जा रहा है।
जब झूठ भी सबूत जैसा दिखने लगे
एक समय था जब फोटो, वीडियो और आवाज़ को पक्का सबूत माना जाता था। अगर किसी के पास तस्वीर या वीडियो है तो उस पर भरोसा कर लिया जाता था। लेकिन आज हालात बदल चुके हैं। एआई ऐसी तस्वीरें बना सकता है जो कभी ली ही नहीं गईं और ऐसे वीडियो तैयार कर सकता है जिनमें कोई इंसान वह बातें करता दिखे जो उसने कभी कही ही नहीं।
सबसे चौंकाने वाली बात यह है कि कई बार एआई से बना कंटेंट असली से भी ज़्यादा असली लगता है। यही वजह है कि आज सोशल मीडिया पर कोई भी वीडियो वायरल हो जाए, तो उस पर भरोसा करने से पहले लोग हिचकने लगे हैं।
डीपफेक और भ्रम का खेल
आज कई बार ऐसा देखा गया है कि किसी नेता या चर्चित व्यक्ति का वीडियो वायरल होता है, जिसमें वह भड़काऊ या आपत्तिजनक बयान देता दिखता है। बाद में पता चलता है कि वह वीडियो डीपफेक था। हालांकि हर मामला डीपफेक का नहीं होता, लेकिन एआई अब गलत काम करने वालों के लिए एक आसान बहाना भी बनता जा रहा है।
कुछ समय पहले एक राजनीतिक नेता का एक आपत्तिजनक वीडियो सोशल मीडिया पर खूब वायरल हुआ। हंगामा मचा, सवाल उठे, लेकिन बाद में नेता ने यह कहकर खुद को बचाने की कोशिश की कि वीडियो एआई से बनाया गया था। चूंकि इससे पहले भी कई डीपफेक वीडियो सामने आ चुके थे, इसलिए लोगों ने इस दलील पर भरोसा कर लिया।

आम लोगों की ज़िंदगी पर सीधा असर
एआई का सबसे डरावना असर आम लोगों पर दिख रहा है। कई लड़कियों की एआई से बनाई गई आपत्तिजनक तस्वीरें सोशल मीडिया पर फैला दी जाती हैं। इससे उनकी इज़्ज़त, करियर और मानसिक सेहत पर गहरा असर पड़ता है। कई मामलों में पीड़ित को समाज के सामने सफाई देनी पड़ती है, जबकि गलती उसकी होती ही नहीं।
इतना ही नहीं, अब वॉयस क्लोनिंग जैसे फ्रॉड भी बढ़ते जा रहे हैं। लोगों को अपने रिश्तेदारों की आवाज़ में फोन आता है—“मैं मुसीबत में हूँ, तुरंत पैसे भेजो।” घबराहट में लोग पैसे ट्रांसफर कर देते हैं और बाद में पता चलता है कि यह सब एआई से किया गया था।
पहचान पर ही सवाल
एआई की सबसे खतरनाक बात यह है कि यह पहचान को ही उलझा देता है। कल्पना कीजिए, अगर कोई आपके सामने आपके माता-पिता की एआई से बनी तस्वीरें या वीडियो दिखाकर यह दावा करे कि वही असली हैं, तो आप कैसे यकीन करेंगे?
यह सुनने में भले ही फिल्मी लगे, लेकिन तकनीक जिस दिशा में आगे बढ़ रही है, वहां यह पूरी तरह असंभव भी नहीं लगता। जब फोटो, वीडियो और यहां तक कि रिपोर्ट्स तक बदली जा सकती हैं, तो भरोसा आखिर किस पर किया जाए?
कानून और समाज की नई चुनौती
एआई की वजह से कोर्ट में भी मुश्किलें बढ़ रही हैं। अब किसी भी वीडियो या फोटो को सबूत मानने से पहले उसकी गहन जांच करनी पड़ती है। हर बार यह सवाल खड़ा हो जाता है कि कहीं यह कंटेंट एआई से तो नहीं बनाया गया।
समस्या यह भी है कि एआई का इस्तेमाल करना बहुत आसान हो गया है। न किसी बड़ी मशीन की ज़रूरत है, न किसी खास ट्रेनिंग की। बस एक स्मार्टफोन और इंटरनेट काफी है। यही आसानी इसे और खतरनाक बनाती है।
समाधान क्या है?
यह सच है कि एआई सिर्फ नुकसान ही नहीं करता। मेडिकल रिसर्च, ट्रैफिक कंट्रोल, पढ़ाई और भाषा अनुवाद जैसे कई क्षेत्रों में एआई ने ज़िंदगी को आसान बनाया है। लेकिन बिना नियम और जिम्मेदारी के इस्तेमाल किया गया एआई झूठ और धोखे की फैक्ट्री बन सकता है।
अब ज़रूरत है कि लोग हर वायरल चीज़ पर आंख बंद करके भरोसा न करें। सरकारों को एआई से जुड़े सख्त कानून बनाने होंगे और समाज को डिजिटल रूप से ज्यादा जागरूक होना पड़ेगा।
क्योंकि अगर आज हमने एआई के दौर में सच को पहचानना नहीं सीखा, तो आने वाले वक्त में सच और झूठ के बीच फर्क करना शायद और भी मुश्किल हो जाएगा।
See More
पिंजरा और पंख: एक बंद कमरे से खुली सड़क तक का मेरा सफर
Sonia Singh Khatri Fitness Reality: फिटनेस के नाम पर ‘कामुकता’? 25 लाख की कमाई का वायरल सच


ज्ञानवर्धक लेख है