डीपफेक (Deepfake) और फेकन्यूज (Fake News)
एआइ एल्गोरिदम (AI Algorithm) के बनाए गए असली जैसे दिखने वाले वीडियो सोशल मीडिया पर वायरल हो रहे हैं। ऐसा सिंथेटिक मीडिया कई सालों से मौजूद है। हालांकि, पिछले एक साल में इसे मिडजर्नी जैसे कई नए ‘जनरेटिव AI’ टूल से बढ़ावा मिला है, जो कम लागत पर डीपफेक (Deepfake) बनाने में आसानी देता है। एक रिपोर्ट के अनुसार OpenAI व Microsoft सहित कंपनियों के AI संचालित इमेज मेकिंग टूल का उपयोग ऐसी तस्वीरें या सूचनाओं को बनाने में हो सकता है जो गलत सूचना को बढ़ावा देती हो। हालांकि दोनों के पास भ्रामक सामग्री बनाने के खिलाफ नीतियां हैं।
जैविक हथियार (Biological Weapons) बनाने में मदद
ग्रिफॉन साइंटिफिक और रैंड कॉर्पोरेशन के शोधकर्ताओं ने कहा कि उन्नत AI मॉडल ऐसी जानकारी प्रदान कर सकते हैं जो जैविक हथियार (Biological Weapons) बनाने में मदद कर सकती है। ग्रिफॉन ने स्टडी की है कि कैसे लार्ज लैंग्वेज मॉडल (LLM) का उपयोग नुकसान पहुंचाने में हो सकता है। रैंड रिसर्च से पता चला कि LLM जैविक हमले की योजना बनाने और उसे क्रियान्वित करने में मदद कर सकता है। उदाहरण के लिए ‘बोटुलिनम’ विष के लिए एयरोसोल वितरण विधियों का सुझाव दे सकता है।
साइबर हमलों में भी इस्तेमाल
साइबर अपराधी पाइपलाइनों और रेलवे सहित महत्वपूर्ण बुनियादी ढांचे के खिलाफ ‘बड़े पैमाने पर, तेज, कुशल और अधिक आक्रामक साइबर हमलों को सक्षम करने’ के लिए ‘नए उपकरण विकसित करने’ के लिए एआइ का उपयोग कर सकते हैं। माइक्रोसॉफ्ट ने फरवरी की एक रिपोर्ट में कहा कि उसने चीनी और उत्तर कोरियाई सरकारों के साथ-साथ रूसी सैन्य खुफिया और ईरान के रिवोल्यूशनरी गार्ड से जुड़े हैकिंग समूहों की गतिविधि देखी, जिन्होंने एलएलएम से हैकिंग अभियानों को अंजाम दिया।