टेलीग्राम के डीपफेक टूल के जरिए किसी तस्वीर में फोटो पहने हुए व्यक्ति के कपड़े उतारे जा सकते हैं। इस टूल का गलत इस्तेमाल कर नाबालिग लड़कियों को परेशान किया जा रहा है और उनकी तस्वीरों के साथ छेड़छाड़ की जा रही है। बताया जा रहा है कि अब तक दस हजार से अधिक लड़कियों और महिलाओं की बिना सहमति वाली एक लाख से अधिक अश्लील तस्वीरें ऑनलाइन साझा की जा चुकी हैं।
रिपोर्ट्स के मुताबिक, लड़कियों और महिलाओं की अश्लील तस्वीरें बनाने के लिए टेलीग्राम नेटवर्क द्वारा एक नए आर्टीफिशियल इंटेलिजेंस बॉट (AI Bot) का इस्तेमाल किया गया है। यह बॉट पिछले करीब एक वर्ष से एप की तरह काम कर रहा है। यह बॉट यूजर्स को लड़कियों की अश्लील तस्वीरें बनाने की परमिशन देता है।
इस टूल का इस्तेमाल कर सिर्फ आम लड़कियों और महिलाओं को ही नहीं बल्कि सेलेब्स को भी टारगेट किया जा रहा है। बताया जा रहा है कि टेलीग्राम पर लड़कियों की करीब 1 लाख से अधिक फर्जी तस्वीरें मौजूद हैं। इन तस्वीरों में से 70 प्रतिशत फोटोज सोशल मीडिया या फिर प्राइवेट सोर्स से हासिल की गई हैं। जो तस्वीरें शेयर की गई हैं, उनमें से ज्यादातर आम नागरिकों की हैं। वहीं कुछ दिनों पहले इसी तकनीक का इस्तेमाल कर सेलिब्रिटीज के भी गंदे वीडियोज बनाए गए।
जो फेक अश्लील तस्वीरें वायरल हो रही हैं उन्हें बनाने के लिए सिर्फ एक नॉर्मल इमेज चाहिए होती है। इसके आगे का काम सॉफ्टवेयर से होता है। इस मामले का खुलासा विजुअल थ्रेट इंटेलिजेंस कंपनी सेंसिटी ने किया। इस कंपनी के CEO जियोर्जियो पैट्रिनी ने बताया कि यह बॉट मात्र एक तस्वीर से निर्वस्त्र इमेज बना सकता है। इसी कारण आम लोगों को आसानी से टारगेट किया जा रहा है। फेसबुक प्रोफाइल पिक्चर से भी निर्वस्त्र तस्वीरें बनाई जा सकती हैं।