AI Voice Scam: કેટલો ખતરનાક છે AI Clone Voice Scam ? કેવી રીતે ટળી શકે છે ખતરો, જાણો
AI Clone Voice Scam: આજના સમયમાં આર્ટિફિશિયલ ઈન્ટેલિજન્સની મદદથી લોકોનો અવાજ બદલીને નાણાકીય છેતરપિંડી - ફાઇનાન્સિયલ ફ્રૉડને આસાનીથી કરી શકાય છે. અહીં અમે તમને આનાથી બચવાના ઉપાયો જણાવી રહ્યા છીએ. જાણો.....
Download ABP Live App and Watch All Latest Videos
View In Appજેમ જેમ ટેક્નોલોજી વધી રહી છે તેમ તેમ લોકો માટે જોખમ પણ વધી રહ્યું છે. આજના સમયમાં સ્કેમર્સ સરળતાથી કોઈના અવાજ, વીડિયો કે ફોટો એડિટ કરીને લોકોને છેતરે છે, પરંતુ આ પ્રકારની નાણાકીય છેતરપિંડીથી બચવા માટે તમારે તમારી જાતને તૈયાર કરવી પડશે.
આર્ટિફિશિયલ ઈન્ટેલિજન્સ દ્વારા યુવાનો અને વરિષ્ઠ લોકો સાથે છેતરપિંડી થઈ રહી હોવાના અહેવાલો વચ્ચે સાયબર સિક્યોરિટી સાથે સંબંધિત નિષ્ણાતોએ એક એડવાઈઝરી જાહેર કરી છે. નિષ્ણાતોના મતે આ પડકારોનો સામનો કરવા માટે વિચારસરણીમાં બદલાવ ખૂબ જ જરૂરી છે.
બીબીસીના અહેવાલ મુજબ, CloudSEEK ના મુખ્ય કાર્યકારી અધિકારી રાહુલ શશી કહે છે કે તમે દરેક વ્યક્તિ અથવા દરેક વસ્તુ પર વિશ્વાસ કરી શકતા નથી. તમારે તમારી જાતને એવી વ્યક્તિમાં ઘડવી પડશે જે દરેક વસ્તુ પર શંકા કરે છે.
રાહુલ શશી કહે છે કે, તમામ વસ્તુઓ અને તમામ લોકો પર વિશ્વાસ કરી શકાય નહીં. આ માટે તમારે તમારી વિચારસરણી બદલવી ખૂબ જ જરૂરી છે. આ છેતરપિંડી અશિક્ષિત તેમજ શિક્ષિત લોકો સાથે થઈ રહી છે. આ ભયથી બચવા માટે આપણે આપણી જાતને સારી રીતે તૈયાર કરવી પડશે.
નિષ્ણાતો કહે છે કે, આવા કિસ્સાઓમાં, ફોન ઉપાડનાર અથવા સંદેશ પ્રાપ્ત કરનાર વ્યક્તિએ સંદેશ અથવા ફોન પર આંધળો વિશ્વાસ ન કરવો જોઈએ. હાલમાં, ડીપ ફેક બનાવવા માટે ટેકનોલોજી ઉપલબ્ધ છે. પરંતુ તેનો સામનો કરવા માટે કોઈ ટેકનોલોજી નથી.
સાયબર લો એકેડમીશિયન નવી વિજયશંકરનું કહેવું છે કે સોશિયલ મીડિયા મોટાભાગના છેતરપિંડી કરનારાઓ માટે ખજાના જેવું છે. અહીંથી તેઓ અવાજની સાથે વીડિયો અને ફોટોગ્રાફ્સ કોપી કરી શકે છે અને પછી તેનો દુરુપયોગ કરી શકે છે.