दुर्भावनापूर्ण मशीन लर्निंग मॉडल गले लगाने के चेहरे पर खोजे गए: रिपोर्ट
![](https://i0.wp.com/hindi.mobilenews24x7.com/wp-content/uploads/2025/02/hugging_face_l2_1737975315227.jpg?resize=780%2C470&ssl=1)
हगिंग फेस, आर्टिफिशियल इंटेलिजेंस (एआई) और मशीन लर्निंग (एमएल) हब, को दुर्भावनापूर्ण एमएल मॉडल शामिल करने के लिए कहा जाता है। एक साइबर सुरक्षा अनुसंधान फर्म ने दो ऐसे मॉडल की खोज की, जिनमें कोड शामिल हैं जिनका उपयोग इन फ़ाइलों को डाउनलोड करने वालों को मैलवेयर को पैकेज और वितरित करने के लिए किया जा सकता है। शोधकर्ताओं के अनुसार, खतरे वाले अभिनेता दुर्भावनापूर्ण सॉफ़्टवेयर सम्मिलित करने के लिए एक कठिन-से-पता लगाने की विधि, डब किए गए अचार फ़ाइल क्रमांकन का उपयोग कर रहे हैं। शोधकर्ताओं ने दावा किया कि दुर्भावनापूर्ण एमएल मॉडल की सूचना दी है, और गले लगाने के चेहरे ने उन्हें मंच से हटा दिया है।
शोधकर्ताओं ने चेहरे को गले लगाने में दुर्भावनापूर्ण एमएल मॉडल की खोज की
एक साइबरस्पेस रिसर्च फर्म, रिवरिंगलैब्स ने दुर्भावनापूर्ण एमएल मॉडल की खोज की और नए शोषण को विस्तृत किया, जो कि चेहरे पर गले लगाने के लिए खतरे वाले अभिनेताओं द्वारा उपयोग किए जा रहे हैं। विशेष रूप से, बड़ी संख्या में डेवलपर्स और कंपनियां प्लेटफ़ॉर्म पर ओपन-सोर्स एआई मॉडल की मेजबानी करती हैं जिन्हें दूसरों द्वारा डाउनलोड और उपयोग किया जा सकता है।
फर्म ने पाया कि शोषण के मोडस ऑपरेंडी में अचार फ़ाइल क्रमांकन का उपयोग करना शामिल है। अनजान के लिए, एमएल मॉडल को विभिन्न प्रकार के डेटा सीरियलकरण प्रारूपों में संग्रहीत किया जाता है, जिसे साझा और पुन: उपयोग किया जा सकता है। अचार एक पायथन मॉड्यूल है जिसका उपयोग एमएल मॉडल डेटा को सीरियल और डिसेरिअलाइजिंग के लिए किया जाता है। इसे आम तौर पर एक असुरक्षित डेटा प्रारूप माना जाता है क्योंकि पायथन कोड को डिसेरिअलाइजेशन प्रक्रिया के दौरान निष्पादित किया जा सकता है।
बंद प्लेटफार्मों में, अचार फ़ाइलों में सीमित डेटा तक पहुंच होती है जो विश्वसनीय स्रोतों से आता है। हालांकि, चूंकि गले लगाना फेस एक ओपन-सोर्स प्लेटफॉर्म है, इसलिए इन फाइलों का उपयोग मोटे तौर पर हमलावरों को मैलवेयर पेलोड को छिपाने के लिए सिस्टम का दुरुपयोग करने की अनुमति देता है।
जांच के दौरान, फर्म ने गले लगाने वाले चेहरे पर दो मॉडल पाए, जिसमें दुर्भावनापूर्ण कोड था। हालांकि, इन एमएल मॉडल को प्लेटफ़ॉर्म के सुरक्षा उपायों से बचने के लिए कहा गया था और उन्हें असुरक्षित के रूप में चिह्नित नहीं किया गया था। शोधकर्ताओं ने मैलवेयर “नुलिफ़ाई” को सम्मिलित करने की तकनीक का नाम दिया, जिसमें “एमएल मॉडल के लिए एआई समुदाय में मौजूदा सुरक्षा को शामिल करना शामिल है।”
इन मॉडलों को Pytorch प्रारूप में संग्रहीत किया गया था, जो अनिवार्य रूप से एक संपीड़ित अचार फ़ाइल है। शोधकर्ताओं ने पाया कि मॉडल को 7Z प्रारूप का उपयोग करके संपीड़ित किया गया था जो उन्हें Pytorch के “Torch.load ()” फ़ंक्शन का उपयोग करके लोड होने से रोकता था। इस संपीड़न ने मैलवेयर का पता लगाने से फेस के अचार उपकरण को गले लगाने से भी रोका।
शोधकर्ताओं ने दावा किया कि यह शोषण खतरनाक हो सकता है क्योंकि इन मॉडलों को डाउनलोड करने वाले डेवलपर्स अनजाने में अनजाने में अपने उपकरणों पर मैलवेयर स्थापित करना समाप्त कर देंगे। साइबर सुरक्षा फर्म ने 20 जनवरी को हगिंग फेस सिक्योरिटी टीम को इस मुद्दे की सूचना दी और दावा किया कि मॉडल को 24 घंटे से भी कम समय में हटा दिया गया था। इसके अतिरिक्त, मंच के बारे में कहा जाता है कि उन्होंने “टूटी हुई ‘अचार फ़ाइलों में इस तरह के खतरों को बेहतर ढंग से पहचानने के लिए अचार उपकरण में बदलाव किया है।