ફેક ન્યૂઝ દુનિયાભરમાં હિંસા, નફરત ફેલાવી ચૂક્યું છે. ત્યારે ફેક ન્યૂઝનું પ્રમાણ હજુ કંટ્રોલ થયું નથી ત્યાં Deepfake ટૅકનોલોજીએ દુનિયાભરના લોકોને ડરાવી દીધા છે. Deepfake એક આર્ટિફિશિયલ ઇન્ટેલિજેન્સ પર ચાલનાર સૉફ્ટવેર છે જેનો ઉપયોગ સૌથી વધુ પૉર્ન ઇન્ડસ્ટ્રી કરે છે. જેમાં તમે કોઇ પણ વ્યક્તિના ફોટો નાખીને તેને કોઇ બીજા વીડિયોમાં મર્જ કરી શકે છે.
આર્ટિફિશિયલ ઇન્ટેલિજેન્સ આ તસ્વીરોને એક વર્ચુઅલ ઇમેજ બનાવીને વીડિયોમાં દેખાઇ રહેલ વ્યક્તિના ચેહરા પર લગાવી દે છે. કારણ કે આ કામ આર્ટિફિશિયલ ઇન્ટેલિજેન્સ દ્વારા થાય છે તો આમાં ફોટોશૉપની જેમ સામાન્ય ભૂલ નથી થતી. આ વીડિયોમાં અસલી-નકલીનો ફરક કરવો વધુ પડતા કેસમાં સંભવ નથી હોતું.
શું હોય છે ડીપફેક (Deepfake)?
ડીપફેક બે શબ્દોના જોડાવાથી બને છે. ડીપ લર્નિંગ (Deep Learning) અને ફેક (Fake). ડીપ લર્નિંગ, આર્ટિફીશિયલ ઇન્ટેલિજેન્સનો એક ભાગ છે. આર્ટિફીશિયલ ઇન્ટેલિજેન્સ સરળ શબ્દોમાં સમજીએ તો એવી ટેક્નોલોજી, જે ખુદ કામ કરી શકે છે, પોતાની સમજ શક્તિને આધારે. જેમકે ગુગલ અસિસ્ટેંટને કહી દો કે મ્યૂઝિક વગાડો. જેમાં તમારે જાતે જઇને મ્યૂઝિક પ્લે નથી કરવું પડતું. માણસના મગજથી જેટલું નજીક, આર્ટિફીશિયલ ઇન્ટેલિજેન્સ એટલું જ ઉત્તમ માનવામાં આવશે.
ડીપફેક, 'હ્યૂમન ઇમેજ સિંથેસિસ' નામની ટેક્નોલોજી પર કામ કરે છે. જેવી રીતે આપણે પણ કોઇ પણ વસ્તુની ફોટોકૉપી કરી લઇએ છીએ. તેવી જ રીતે આ ટેક્નોલોજી ચાલતી-ફરતી વસ્તુની કૉપી કરી શકે છે. એટલે સ્ક્રીન પર એક માણસને તમે ચાલતા-ફરતા, બોલતા જોઇ શકો છો, જે નકલી હોય.
આ ટેક્નોલોજી હેઠળ બનેલી ઍપ્સ ખુબ જ નુકસાન પહોંચાડી શકે છે. એવા કોઇ એક વ્યક્તિના ચેહરા પર, બીજાનો ચેહરો લગાવી શકાય છે. તે પણ સ્પષ્ટ અને બારીકીથી, કે નીચે વાળા ચેહરાના તમામ હાવભાવ ઉપર વાળા ચેહરા સુધી દેખાઇ શકે છે. આ તે એજ પ્રકારે છે જેમ કે એકતા કપૂરની સીરિયલમાં પ્લાસ્ટિક સર્જરીથી જૂના ચેહરાને નવો ચેહરો મળી જાય છે. અને લોકોને લાગે છે કે તમામ કામ તે વ્યક્તિ કરી રહ્યા છે, જેનો ચેહરો દેખાઇ રહ્યો છે.
તેનો ઉપયોગ કેવી રીતે કરવામાં આવે છે?
આનો ઉપયોગ આપણાં જેવા લોકો જ કરે છે, જેનાથી આપણી હતાશા-નિરાશાનો ખ્યાલ આવે છે. એક સોશિયલ મીડિયા પ્લેટફોર્મ છે Reddit જે ફેસબુક અને ટ્વિટરથી અલગ, એક ડિસ્કશન ફોરમ છે. અલગ અલગ ટૉપિકના થ્રેડ હોય છે અહીં. રેડિટ પર એક યૂઝરે સૌથી પહેલા આર્ટિફીશિયલ ઇન્ટેલિજેન્સનો ઉપયોગ કરતા ફેક વીડિયો મૂક્યો. યૂઝરનું નામ હતું 'ડીપફેક'. અહીંથી પૉર્નની એક નવી કેટેગરી શરૂ થઇ.
2 વર્ષ જૂની આ ટેક્નોલૉજીનો શિકાર તમામ ફેમસ એક્ટ્રેસ થઇ ચૂકી છે. આ નામોની ગણતરી પૂર્ણ નથી થતી. એન્જલીના જોલી, વંડર વુમન ગાલ ગલોત, હેરી પૉટર વાળી એમા વૉટસન, ગેમ ઓફ થ્રોન્સમાં માર્જીની ભૂમિકા ભજવનાર નેટલી ડોર્મર, થૉર અને બ્લેક સ્વાન જેવી ફિલ્મોમાં દેખાયેલી નેટલી પોર્ટમન, કોઇ આ 'ડિપફેક'થી નથી બચ્યું. ભારતમાં પણ એશ્વર્યારાય બચ્ચન, કેટરીના કેફ, પ્રિયંકા ચોપરા સિવાય અનેક અભિનેત્રીઓના આ પ્રકારના નકલી વીડિયો બનાવીને ફેલાવવાનો પ્રયત્ન કરવામાં આવ્યો છે.
ટીવી અને ફિલ્મોમાં દેખાતી એક્ટ્રેસ, હકીકતમાં ન્યૂડ કેવી લાગશે. અથવા પૉર્નોગ્રાફિક વીડિયોમાં કેવી લાગશે, આ જોવાની લોકોમાં ઇચ્છા છે, તે આ વીડિયોઝની સંખ્યા જોઇને ખબર પડે છે. જાણીતી મહિલાઓને નગ્ન જોવાની ઇચ્છા અને તેનું આ પરિણામ ખુબજ ખતરનાક છે. પરંતુ આનાથી પણ ખતરનાક એક બીજી વસ્તુ છે. જેને આપણે રિવૅન્જ પૉર્નના નામથી જાણીએ છીએ.
શું છે રિવૅન્જ પૉર્ન
રિવૅન્જનો મતલબ થાય છે બદલો. સામાન્ય રીતે એવું બને છે કે સંબંધો પૂર્ણ થયા બાદ, પોતાના પાર્ટનરને બદનામ કરવા માટે યુવક કે યુવતી આવા પ્રાઇવેટ ફોટો સોશિયલ મીડિયા પર નાંખી દે છે. સામાન્ય રીતે આમ કરવા માટે અસલી ફોટોનો ઉપયોગ થાય છે. કપલ જ્યારે રિલેશનશિપમાં હોય છે તો એકબીજા સાથે ઇન્ટિમેટ ફોટો પડાવે છે. પરંતુ જ્યારે કોઇ પાર્ટનર આવા ફોટો નથી પણ પડાવતું તો તેમને Deepfake તમામ સુવિધા આપે છે. જેનો શિકાર ખાસ કરીને યુવતીઓ વધુ થાય છે. કારણ કે લોકો યુવક કરતા યુવતીને નગ્ન જોવાની વધુ ઇચ્છા રાખે છે. બીજી વાત એ પણ છે કે, 'આબરૂ' ગુમાવવાનો ખતરો યુવતીઓને વધુ હોય છે.
પજવણીમાં કોઇ બ્રેક ન લાગે, એટલા માટે...
બસ તો આ માટે લોન્ચ થાય છે 'ડીપ ન્યૂડ' જેવી એપ. જે યુવતીનો ફોટો અપલોડ કરવાના જવાબમાં નગ્ન ફોટો આપી શકે છે. અંગ્રેજી વેબસાઇટ વાઇસે આ એપનો ઉપયોગ પુરૂષોના ફોટો પર કરીને જોઇ શકે, તો એપમાં પુરૂષોના પેન્ટ પર મહિલાઓના પ્રાઇવેટ પાર્ટ લગાવીને પરિણામ દેખાડી દીધું.
30 સેકન્ડમાં મહિલાઓને નગ્ન કરનારી એપ આર્ટિફીશિયલ ઇન્ટેલિજેન્સની લેટેસ્ટ ડિસ્કવરી છે. જેમાં મહિલાઓના ફોટો કોપી કરીને ઇન્ટરનેટ પર મેચિંગ શરીર શોધી ફોટોશૉપ જેવા સૉફ્ટવેરથી તેને એડિટ કરવાની મહેનત બચે છે. બસ ફોટો નાંખો અને કામ તમામ.
જો કે હવે આ એપને બંધ કરી દેવામાં આવી છે. જેથી મહિલાઓ વિરૂદ્ધ ગુનાઓને પ્રોત્સાહન ન મળે. આવામાં સવાલ એ છે કે એવી માનસિકતાનું શું કરવું જે આર્ટિફીશિયલ ઇન્ટેલિજેન્સ જેવી ટેક્નોલૉજિકલ ક્રાંતિનો ઉપયોગ યુવતીઓને નગ્ન કરવામાં લગાવી રહ્યા છે.
ટૅકનોલોજીની સાઈડ ઈફેક્ટ
વધતી અને ઉત્તમ બનતી ટેક્નોલૉજી જ્યાં એકબાજુ મહિલાઓ પબ્લિક સેફ્ટીમાં એક મોટી ભૂમિકા નિભાવી શકે છે, બીજી તરફ કેટલીક હદ સુધી નિભાવી પણ રહી છે. ત્યારે બીજી તરફ આ ટેક્નોલૉજી તેમને ઠીક એટલી જ કમજોર બનાવી રહી છે, જેટલી તે આ ટેક્નોલૉજીના આ યુગ પહેલા હતી.
પહેલા તપાસો પછી શેર કરો
ટૅકનોલોજી કેટલી ખતરનાક બની રહી છે તેનું આ સૌથી મોટું ઉદાહરણ છે. જ્યારે ફૅક ન્યૂઝ પર આખી દુનિયા સંઘર્ષ કરી રહી છે ત્યારે ફૅક વીડિયોએ પણ માથું ઊંચક્યું છે. અને ખાસ કરીને Deepfake વીડિયોને ઓળખવા પણ મુશ્કેલ બની જાય છે ત્યારે આપણ સતર્ક રહેવું ખૂબ જરૂરી છે. ખાસ કરીને વાયરલ થયેલા વીડિયોની પાછળની હકીકત આપણે તપાસતા નથી. આવામાં ફેક ફોટો-વીડિયોને તમે ઓળખી ન શકો તો કંઈ નહીં પરંતુ થોડી મહેનત કરીને તેની ખરાઈ કરવા માટેના પ્રયત્નો કરશો તો પણ આ ફૅક વીડિયોનો પ્રવાહ થોડો તો અટકાવી શકશો.