સોશિયલ મીડિયાના મોટાભાગના યુઝર્સની પ્રાઈવસી ઉપર ફેક ફોટોગ્રાફ્સ અને વીડિયોના કારણે મોટું જોખમ ઊભું થયું છે. સાયબર એક્સપર્ટ્સ પણ ફેક ફોટોગ્રાફ્સ-વીડિયોને એક પડકારના રૂપમાં જોઈ રહ્યા છે ત્યારે હવે આ સમસ્યા સામે લડવા અને યુઝર્સની પ્રાઈવસીને સલામત રાખવા માટે ભારતીય મૂળના વૈજ્ઞાનિકોએ નવતર ઉપાય શોધી કાઢ્યો છે.
આ વૈજ્ઞાનિકોની ટીમે આર્ટિફિશિયલ ઈન્ટેલિજન્સ (એઆઈ)નું એક એવું ‘ડીપ ન્યૂરલ નેટવર્ક’ બનાવ્યું છે, જે ફોટોગ્રાફ્સ કે વીડિયો ફૂટેજ સાથે કરવામાં આવેલાં ચેડાં કે
છેડછાડનો આસાનીથી પતો લગાવી શકે છે.
ઉલ્લેખનીય છે કે, વીડિયો ફૂટેજ સાથે ચેડાં કરવા, કોઈ એક વ્યક્તિના ચહેરાના હાવભાવ કોઈ બીજી વ્યક્તિના ચહેરા પર ફીટ કરી દેવા કે બદલવાને ‘ડીપફેક વીડિયો’ કહેવામાં આવે છે. આ એવા વીડિયો હોય છે જેને જોઈને તમે આસાનીથી અંદાજ લગાવી શકતા નથી કે વીડિયો ફૂટેજમાં જે વ્યક્તિ દેખાય છે તે હકીકતમાં કોઈ અલગ જ વ્યક્તિ છે.ઘણા દેશોમાં આવા વીડિયો બનાવીને લોકો તેનો ઉપયોગ રાજનૈતિક હથિયાર તરીકે પણ કરતા હોય છે. કોઈ પણ વ્યક્તિની જિંદગીભરની કમાણી કે ઈમેજને માત્ર થોડી મિનિટનો આ વીડિયો તબાહ કરી શકે છે.
આપને જણાવી દઇએ કે, યુનિવર્સિટી ઓફ કેલિફોર્નિયા, રિવરસાઈડમાં ઈલેક્ટ્રોનિક એન્ડ કમ્પ્યુટર એન્જિનિયરિંગના પ્રોફેસર અમિત રાય ચૌધરીના નેતૃત્વમાં વૈજ્ઞાનિકોની ટીમ હાલ પણ સ્થિર ચિત્ર (ઈમેજ) પર કામ કરી રહી છે, પરંતુ તેમના દ્વારા બનાવવામાં આવેલી નવી સિસ્ટમ ‘ડીપફેક’ વીડિયોની ઓળખ આસાનીથી કરી શકે છે.
પ્રોફેસર ચૌધરીએ જણાવ્યું કે, અમે એક એવી સિસ્ટમ વિકસાવી છે, જે છેડછાડ કરવામાં આવેલી ઈમેજ અને સામાન્ય ઈમેજ વચ્ચેનો તફાવત પકડી લે છે. અમે આ સિસ્ટમની મદદથી કોઈ પણ ઈમેજ અસલી છે કે તેની સાથે ચેડાં કરવામાં આવ્યા છે તે ગણતરીની મિનિટોમાં જ કહી શકીએ છીએ. ઈમેજના ક્યા ભાગને બદલવામાં આવ્યા છે અથવા તો તેની સાથે ચેડાં કરવામાં આવ્યા છે તેની જાણ પણ સિસ્ટમથી થાય છે.
‘ડીપ ન્યૂરલ નેટવર્ક’ હકીકતમાં એક કમ્પ્યુટર સિસ્ટમ છે, જે આર્ટિફિશિયલ ઈન્ટેલિજન્સ સંશોધકોએ વિશિષ્ટ કાર્યો માટે બનાવી છે. ફેક વીડિયોના કિસ્સામાં આ નેટવર્ક બદલવામાં આવેલી ઈમેજ કે ભાગની ઓળખ કરી લે છે. હકીકતમાં વીડિયો એ સ્થિર ચિત્રોનું જ એક ગતિશીલ રૂપ છે.