Select Your Language

Notifications

webdunia
webdunia
webdunia
webdunia

AI, डीपफेक आणि खोटी माहिती, निवडणुकांत किती धोकादायक ठरू शकते तंत्रज्ञान? वाचा

AI, डीपफेक आणि खोटी माहिती, निवडणुकांत किती धोकादायक ठरू शकते तंत्रज्ञान? वाचा
, शुक्रवार, 24 मे 2024 (13:16 IST)
-मेरिल सेबेस्टियन
गेल्या काही वर्षात तंत्रज्ञान झपाट्यानं विकसित झालं. परिणामी सर्वसामान्यांच्या दैनंदिन जीवनापासून अगदी सरकारी यंत्रणेवरही त्याचा परिणाम झाला आहे. विशेषतः आर्टिफिशियल इंटेलिजन्स (AI) तंत्रज्ञानाची खूप चर्चा आहे. आत निवडणूक काळात याचा वापर करून खोटी माहितीही पसरवण्यात येत असल्यानं, चिंता व्यक्त केली जात आहे.
 
गेल्या वर्षी नोव्हेंबर महिन्यात मुरलीकृष्णन चिन्नादुरई युट्यूबवर एक तमिळ कार्यक्रम लाईव्ह पाहत होते. पण मुरलीकृष्णन यांना त्या प्रसारणात काहीतरी घोळ वाटला.
 
त्यात दुवारका नावाची एक महिला बोलत होती. ती तमिळ अतिरेकी संघटना एलटीटीईचे प्रमुख वेलुपिल्लई प्रभाकरनची कन्या असल्याचं सांगण्यात आलं होतं.
 
पण, महत्त्वाचं म्हणजे प्रत्यक्षात दशकभरापूर्वीच दुवारकाचा मृत्यू झाला आहे. 2009 मध्ये श्रीलंका सरकार आणि एलटीटीई यांच्यातील गृहयुद्धात एका हवाई हल्ल्यात दुवारका मारल्या गेल्या.
 
दुवारकाचा मृतदेह आजवर मिळालेला नाही. पण आता अचानक इंग्लंडमधून एक मध्यमवयीन महिलेच्या रुपात त्या जगभरातील तमिळ लोकांना त्यांनी राजकीय लढाई सुरू ठेवावी, अशी विनंती करताना दिसल्या.
 
मुरली कृष्णन चिन्नादुरई तमिळनाडूत राहणारे एक फॅक्ट चेकर आहेत.
 
त्यांनी तो व्हीडिओ अत्यंत बारकाईनं पाहिला. व्हीडिओ मध्ये-मध्ये अडकत होता. त्यावरून दुवारका प्रत्यक्षात बोलत असल्याचं दाखवलं जात असलं, तरी प्रत्यक्षात तो व्हीडिओ आर्टिफिशियल इंटेलिजन्सच्या (एआय) मदतीनं तयार करण्यात आला असल्याचं त्यांनी लगेचच ओळखलं.
 
या व्हीडिओच्या माध्यमातून चिथावणी देण्याचा प्रयत्न केला जात होता. मुरली कृष्णन यांच्या ते तत्काळ लक्षात आलं.
 
"तामिळनाडूतील लोक या मुद्द्याबाबत अत्यंत संवेदनशील आहेत. निवडणुकीच्या काळात ही चुकीची माहिती खूप वेगानं पसरू शकते," असं ते म्हणाले.
 
सध्या भारतात निवडणुका सुरू आहेत. त्या पार्श्वभूमीवर AI च्या मदतीनं तयार करण्यात आलेल्या प्रचंड कंटेंटकडं दुर्लक्ष केलं जाऊ शकत नाही. प्रचाराचे व्हीडिओ, सर्व भारतीय भाषांमध्ये लोकांसाठी वैयक्तिक स्वरुपाचे ऑडिओ संदेश आणि इतकंच काय उमेदवारांच्या आवाजामध्ये मतदारांना केला जाणारा ऑटोमॅटिक फोन कॉल सर्वाचा यात समावेश आहे.
 
शाहिद शेख हे आर्टिफिशियल इंटेलिजन्सच्या मदतीनं अशा कंटेंट निर्मितीचं काम करतात. त्यांनी याचा अनुभव गंमतीशीर होता, असं सांगितलं. राजकीय नेते आधी कधीही दिसले नव्हते अशा रुपात त्यांना दाखवलं जात होतं. उदाहरण द्यायचं झाल्यास व्यायाम करतानाचे कपडे परिधान केलेले, संगीत ऐकत असलेले आणि नाचणारे-गाणी म्हणणारे राजकारणी, अशा प्रकारे.
 
पण, आर्टिफिशियल इंटेलिजन्सचं तंत्रज्ञान जसंजसं विकसित होत जात आहे, तसतशी त्याद्वारे दिल्या जाणाऱ्या चुकीच्या माहितीसंदर्भातील चिंता वाढत चालली आहे. विशेषतः फेक न्यूज किंवा खोट्या बातम्यांना त्या खऱ्या म्हणून सादर करण्याच्या प्रकारांनी चिंता अधिक वाढवली आहे.
 
भारताचे माजी मुख्य निवडणूक आयुक्त, एस वाय कुरेशी म्हणतात की, "निवडणुकांमध्ये अफवांचा वापर नेहमीच झाला आहे. पण, सोशल मीडियाच्या या काळात अफवा जंगलात वणवा पसरावा तशा पसरतात."
 
"खरंतरं अफवांमुळं संपूर्ण देशात आगीचा भडका उठण्याची भीती आहे," असंही ते म्हणतात.
 
शब्द आणि संदेशांची हेरा-फेरी
अलिकडच्या काळात तंत्रज्ञानानं खूप प्रगती केली आहे. भारतात राजकीय पक्षांनीच पहिल्यांदा त्याचा वापर केला असं नाही. सीमेपलिकडे असलेल्या पाकिस्तानात या तुरुंगात असणाऱ्या इम्रान खान यांनी या तंत्रज्ञानाचा वापर करून एका प्रचार सभेत भाषण केलं होतं.
 
भारतातदेखील प्रभावीपणे निवडणूक प्रचार करण्यासाठी स्वत: पंतप्रधान नंरेद्र मोदी नवनवीन तंत्रज्ञानाचा वापर करत आले आहेत. हिंदीमध्ये भाषण करून सरकारद्वारे तयार करण्यात आलेल्या भाषिणी या AI टूलचा वापर करून ते तमिळमध्ये अनुवाद करून ते ऐकवतात.
 
पण, शब्द किंवा संदेशांमध्ये फेरबदल करण्यासाठीही याचा गैरवापर होण्याची शक्यता आहे.
 
बॉलीवूड स्टार रणवीर सिंह आणि आमिर खान यांचे दोन व्हिडिओ गेल्या महिन्यात व्हायरल झाले होते. त्यात हे दोघं कॉंग्रेसचा प्रचार करत असल्याचं दाखवलं होतं.
 
पण हे व्हिडिओ डीप फेक असल्याचं दोघांनीही स्पष्ट केलं होतं. त्यांच्या परवानगीशिवाय हे व्हिडिओ बनवण्यात आल्याची तक्रार त्यांनी पोलिसांकडे दाखल केली आहे.
 
नंतर 29 एप्रिलला स्वत: पंतप्रधान नरेंद्र मोदी यांनी AI च्या मदतीनं त्यांच्या आणि भाजपाच्या इतर नेत्यांच्या भाषणांमध्ये फेरफार करून सादर केल्याबाबत चिंता व्यक्त केली होती.
 
दुसऱ्याच दिवशी पोलिसांनी दोघांना अटक केली.
 
त्यात एक कॉंग्रेस पक्षाचा तर दुसरा आम आदमी पार्टीचा कार्यकर्ता होता. गृहमंत्री अमित शाह यांचा व्हिडिओ चुकीच्या पद्धतीनं संपादित करून सादर करण्याच्या आरोपाखाली या दोघांना अटक झाली होती.
 
नरेंद्र मोदी यांच्या भारतीय जनता पार्टीवरही विरोधक असे आरोप करत आले आहेत.
 
राजकारणातील स्पर्धा
पण अटकेची कारवाई झाली असली तर अशाप्रकारच्या कंटेंटला आळा घालण्यासाठी व्यापक कायदेशीर व्यवस्था नाही, ही महत्त्वाची अडचण असल्याचं जाणकार म्हणतात.
 
माहिती आणि सुरक्षेसंदर्भातील तज्ज्ञ श्रीनिवास कोडाली यांच्या मते, "याचा अर्थ असाच होतो की, कोणतीही चुकीची गोष्ट केल्याबद्दल अटक झाली तरी छोटीशी शिक्षा देऊन तुम्हाला सोडलं जाईल."
 
बीबीसीला मिळालेल्या माहितीनुसार, काही राजकारणीही अशा प्रकारचा कंटेंट तयार करणाऱ्यांकडून विरोधकांचे पॉर्नोग्राफिक फोटो किंवा मॉर्फ व्हिडिओ तयार करण्यास सांगतात. विरोधकांची प्रतिमा मलीन करण्याचा हेतू त्यामागे असतो.
 
दिव्येंद्र सिंह जादौन यांनी सांगितलं की "एकदा एका खऱ्या व्हिडिओवरून मला डीप फेक व्हिडिओ बनवण्यास सांगितलं होतं. कारण तेव्हा खरा व्हिडिओ खूप शेअर होत होता. त्यातील नेत्याची खराब प्रतिमा त्यातून समोर येत होती."
 
दिव्येंद्र सिंह यांच्या मते, "त्यामुळं मी त्यांचा डीपफेक व्हिडिओ तयार करावा आणि तो खरा असल्याचं सांगून ते शेअर करतील, अशी त्या नेत्याची इच्छा होती."
 
दिव्येंद्र सिंह इंडियन डीपफेकर (टीआयडी) चे संस्थापक आहेत. ही संस्था मोफत उपलब्ध असलेल्या आर्टिफिशियल इंटेलिजन्स सॉफ्टवेअरचा वापर करून राजकारण्यांचं प्रचार साहित्य तयार करण्यास मदत करते.
 
ते म्हणाले की, त्यांची कंपनी प्रत्येक कंटेंटमध्ये डिसक्लेमर किंवा सूचना देण्यावर भर देते. म्हणजे व्हिडिओ खरा नाही, हे स्पष्ट होऊ शकतं. पण अजूनही यावर नियंत्रण मिळवणं खूप कठिण आहे.
 
वेगाने पसरणाऱ्या अफवा
शाहिद शेख, पश्चिम बंगालच्या एका मार्केटिंग एजन्सीसाठी काम करतात. त्यांनी तयार केलेल्या कंटेंटसाठी श्रेय न देता राजकीय नेते किंवा पक्षांच्या सोशल मीडिया पेजवर तो शेअर केला जतो, असं ते सांगतात.
 
"एका राजकीय नेत्यानं मी तयार केलेल्या नरेंद्र मोदी यांच्या फोटोचा कोणताही संदर्भ किंवा सूचना न देता वापर केला. तसंच तो फोटो AI चा वापर करून तयार केल्याचं स्पष्टीकरणही दिलं नाही," असं ते म्हणाले.
 
सध्या तर डीपफेक तयार करणं एवढं सोपं झालं आहे की ते कोणीही ते करू शकतं.
 
दिव्येंद्र जादौन म्हणाले की, "आधी जे काम करण्यासाठी सात ते आठ दिवस लागायचे. तोच कंटेंट आता तीन मिनिटात तयार होतो. फक्त एक संगणक असायला हवा."
 
दोन व्यक्तींमध्ये खोटा फोन कॉल घडवणं किती सोपं आहे हे बीबीसीच्या टीमनं स्वत:च्या डोळ्यांनी पाहिलं. अमेरिकेच्या माजी राष्ट्राध्यक्षांबरोबर संवादाचा हा कॉल होता.
 
एवढे धोके असले तरी, AI संदर्भात कोणताही कायदा बनवण्याबाबत विचार नसल्याचं, भारतानं सुरुवातीलाच म्हटलं होतं. पण नुकतचं मार्च महिन्यात, 'मोदी फॅसिस्ट आहेत का?' या प्रश्नावर गुगलच्या जेमिनी चॅटबॉटवर मिळालेल्या उत्तरामुळं वाद निर्माण झाल्यानंतर सरकार अचानक सक्रिय झालं.
 
भारताचे माहिती आणि तंत्रज्ञान राज्यमंत्री राजीव चंद्रशेखर यांनी, यामुळे भारताच्या आयटी कायद्यांचं उल्लंघन झाल्याचं सांगितलं.
 
त्यानंतर भारत सरकारनं तंत्रज्ञान कंपन्यांना जनरेटिव्ह आर्टिफिशियल इंटेलिजन्सच्या कमी चाचण्या घेतलेल्या आणि विश्वास ठेवण्यायोग्य नसलेलं मॉडेल किंवा टूल जारी करण्यापूर्वी सरकारची परवानगी घ्यावी, असं सांगितलं.
 
अशा टूल्सच्या 'निवडणूक प्रक्रियेच्या विश्वासार्हतेला धोका' निर्माण करणाऱ्या उत्तरांबाबतही इशारा देण्यात आला.
 
पण, एवढंच पुरेसं नाही. फॅक्ट चेक करणाऱ्यांच्या मते, अशा कंटेंटचं खरं रुप सातत्यानं समोर आणणं मोठं आव्हान आहे. विशेषतः निवडणुकीच्या काळात खोट्या माहितीचा पूर येतो तेव्हा ते अधिक कठिण असतं.
 
तमिळनाडूत प्रसारमाध्यमांवर देखरेख करणारी संस्था चालवणारे मुरलीकृष्णन अन्नादुरई यांच्या मते, "माहिती ताशी 100 किमी वेगानं पुढं जाते. पण, आम्ही सत्य समोर आणतो ती माहिती ताशी 20 किमी अशा वेगानं पसरते."
 
श्रीनिवास कोडोली यांनी तर मुख्य प्रवाहातील प्रसारमाध्यमांमध्येही ही खोटी माहिती पसरते असं सांगितलं. तरीही, "निवडणूक आयोगानं AI बाबत मौन धारण केल्याचं सांगतात."
 
"त्यांच्यासाठी काहीही नियम नाही. नियम, कायदे बनवण्याऐवजी त्यांनी हे काम तंत्रज्ञान उद्योगावर सोडून दिलं आहे," असं श्रीनिवास म्हणाले.
 
जाणकारांच्या मते, या समस्येवर निश्चित असं उत्तर नाही.
 
"पण, अजूनही बनावट किंवा खोटा व्हीडिओ फॉरवर्ड करणाऱ्यांवर कारवाई झाली तर कदाचित इतरांकडून अशा प्रकारची माहिती शेअर करण्यास आळा बसेल," असं एस. वाय. कुरेशी म्हणाले.

Share this Story:

Follow Webdunia marathi

पुढील लेख

केदारनाथमध्ये मोठा अपघात टळला, पायलटसह 7 जणांना घेऊन हेलिकॉप्टरचे इमर्जन्सी लँडिंग