जिस फ़ेसबुक पर नफ़रत फैलाने वाला, भड़काऊ और विभाजनकारी सामग्री को बढ़ावा देने के आरोप लगते रहे हैं उसके बारे में एक और चौंकाने वाली रिपोर्ट आई है। नये दस्तावेजों में यह सामने आया है कि जब फ़ेसबुक पर ऐसी नफ़रत वाली सामग्री बढ़ रही थी तो वह ऐसी सामग्री को रोकने के लिए होने वाले ख़र्च में कटौती कर रहा था। फ़ेसबुक के ही दस्तावेजों के आधार पर उठाए गए इन सवालों के जवाब में कंपनी ने कहा है कि उसने नफ़रत वाली सामग्री को रोकने के लिए और ज़्यादा क़दम उठाए हैं और ऐसी तकनीक को भी बढ़ावा दिया है जिससे नफ़रत बढ़ाने वाली सामग्री को अंदरूनी सिस्टम भी खुद ही तुरत हटा दे।
फ़ेसबुक की प्रतिक्रिया से लगता है कि इसने नफ़रत वाली और विवादास्पद सामग्री पर कार्रवाई के लिए तकनीक पर ज़्यादा भरोसा जताया। लेकिन ह्विसल ब्लोअर बन चुके इसी कंपनी के पूर्व कर्मचारियों ने कई रिपोर्टों में यह दावा किया है कि फ़ेसबुक का एल्गोरिदम यानी अंदरूनी सिस्टम उन पोस्टों को आगे बढ़ाता है जो नफ़रत फैलाने वाले हैं। यानी आप क्या देखना चाहते हैं या नहीं, इससे फर्क नहीं पड़ता है और फ़ेसबुक का आंतरिक सिस्टम आपको नफ़रत व भड़काऊ सामग्री परोसना शुरू कर देता है।
आसान शब्दों में कहें तो एल्गोरिदम ही तय करता है कि फ़ेसबुक जैसा सोशल मीडिया या कोई भी सर्च इंजन किस तरह की सामग्री को आगे बढ़ाता है यानी प्रमोट करता है। मिसाल के तौर पर यदि आपने अकाउंट में लॉग इन किया तो फ़ेसबुक आपको किस तरह के पेज या कंटेंट को आपके सामने सुझाव के रूप में परोसता है और आपको सुझाव देता है कि किसको फॉलो करें और क्या सामग्री देखें। हालाँकि, फ़ेसबुक इन रिपोर्टों को खारिज करता रहा है, लेकिन ह्विसल ब्लोअर लगातार ऐसी रिपोर्टें जारी करते रहे हैं।
अब 'द इंडियन एक्सप्रेस' ने फ़ेसबुक के उन्हीं आंतरिक दस्तावेजों की पड़ताल की है। इसने रिपोर्ट में कहा है कि 6 अगस्त, 2019 को एक आंतरिक रणनीति नोट के अनुसार, ख़र्च को कम करने के लिए सोशल मीडिया कंपनी में आंतरिक रूप से तीन संभावित उपाय प्रस्तावित किए गए थे- कम यूजर रिपोर्टों की समीक्षा करना, किसी आपत्ति से पहले ही संदेहास्पद सामग्री की समीक्षा को कम कर देना, और कम अपीलों की समीक्षा करना। फ़ेसबुक के उस नोट का शीर्षक 'ख़र्च-नियंत्रण: नफ़रती भाषणों की पड़ताल' है।
इस नोट में यह भी कहा गया है, 'सवाल यह नहीं है कि क्षमता में कटौती कैसे की जाए, बल्कि यह है कि यूज़र रिपोर्ट की समीक्षा करने की हमारी क्षमता को ख़त्म किए बिना हम कितनी कटौती कर सकते हैं।'
नोट में यह भी कहा गया है कि ख़र्च में कटौती के लिए यूजरों को 'दोबारा समीक्षा के लिए अनुरोध सबमिट करने से पहले ठीक से विचार करने' के लिए कहा जाए।
रिपोर्ट में कहा गया कि कम यूजर रिपोर्टों की समीक्षा करने की ज़रूरत इस तथ्य से महसूस हुई कि जब फेसबुक ने अधिकांश यूज़र रिपोर्टों की समीक्षा की, तो उसने पाया कि रिपोर्ट की गई सामग्री पर कार्रवाई दर 25% थी। यानी अधिकतर रिपोर्ट की गई सामग्री पर कार्रवाई की ज़रूरत नहीं थी।
नोट के अनुसार, जून 2019 के अंत तक फेसबुक ने नफ़रत वाली सामग्री की समीक्षा पर आने वाले कुल ख़र्च को 15 प्रतिशत तक कम करने की योजना बनाई। इस दस्तावेज़ के अनुसार, कंपनी तब नफ़रत वाली सामग्री की समीक्षा पर प्रति सप्ताह 2 मिलियन डॉलर से अधिक खर्च कर रही थी।
पिछले महीने ही फ़ेसबुक इंक से बने मेटा प्लेटफॉर्म्स इंक के एक प्रवक्ता ने 'द इंडियन एक्सप्रेस' से कहा, 'यह दस्तावेज़ नफ़रत वाली सामग्री को हटाने के लिए किसी भी बजट में कटौती की वकालत नहीं करता है, न ही हमने कुछ ऐसा किया है। वास्तव में, हमने अपनी टीमों द्वारा हर साल नफ़रत वाली सामग्री से निपटने में लगने वाले घंटों की संख्या में वृद्धि की है।'
रिपोर्ट के अनुसार प्रवक्ता ने कहा, 'पिछले दशक में हमने यूज़रों द्वारा बनाई गई व्यक्तिगत रिपोर्ट पर भरोसा करने के बजाय हमारे नियमों को तोड़ने वाली सामग्री को पहले ही पहचानने, प्राथमिकता देने और हटाने के लिए तकनीक बनाई है। प्रत्येक कंपनी नियमित रूप से विचार करती है कि कैसे अपनी व्यावसायिक प्राथमिकताओं को अधिक कुशलता से किया जाए ताकि वे इसे और भी बेहतर तरीक़े से कर सकें, यही यह दस्तावेज़ दिखाता है।'
प्रवक्ता ने दावा किया कि कंपनी के 40,000 से अधिक लोग सुरक्षा पर काम कर रहे हैं। उन्होंने दावा किया कि टीमें 20 भारतीय भाषाओं सहित 70 से अधिक भाषाओं में सामग्री की समीक्षा कर रही हैं। हालांकि, कंपनी ने फेसबुक द्वारा सालाना नफ़रत वाली सामग्री की समीक्षा पर कुल खर्च में 2019 के बाद से कैसे बदलाव आया, इसका जवाब नहीं दिया।
अपनी राय बतायें