ലോകം മാറി മറിയുന്നതിന്റെ ഉത്തമോദാഹരണമായി മാറിയിരിക്കുകയാണ് എഐ അഥവാ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ്. അത്യാധുനിക സാങ്കേതിക വിദ്യകൾ ഉപയോഗിച്ച് പലതരം മായകാഴ്ചകളാണ് നമ്മൾ ദിനംപ്രതി കാണുന്നത്. ഈയിടെ സോഷ്യൽ മീഡിയയിലൂടെ കണ്ടുകൊണ്ടിരിക്കുന്ന എഐ ചിത്രങ്ങളും ഡീപ് ഫേക്ക് വീഡിയോകളും എല്ലാം ഇതിന് ഉദാഹരണമാണ്. എന്നാൽ ഇവയെല്ലാം കണ്ട് ഒരു വശത്ത് ആളുകൾ കയ്യടിക്കുമ്പോൾ മറ്റൊരു വശത്ത് എഐയുടെ ദൂഷ്യഫലങ്ങൾ ആളുകൾ അനുഭവിച്ചു തുടങ്ങി കഴിഞ്ഞു.
ഈയിടെയാണ് കേരളത്തിൽ എഐയുടെ ഡീപ് ഫേക്ക് എന്ന ടെക്നോളജിയിലൂടെ വ്യാജ വീഡിയോ കോൾ വഴി പണം തട്ടിയ ഒരു വാർത്ത നമ്മൾ കണ്ടത്. ഈയൊരു സംഭവം കേരളത്തിൽ ആദ്യമായാണ് റിപ്പോർട്ട് ചെയ്തിരിക്കുന്നത് എന്നതാണ് പേടിക്കേണ്ട ഒരു കാര്യം. വാട്സാപ്പ് വീഡിയോ കോളിലൂടെ സുഹൃത്താണെന്ന് തെറ്റിദ്ധരിപ്പിച്ച് 40,000 രൂപയാണ് ഇയാളിൽ നിന്ന് തട്ടിയെടുത്തത്. ഡീപ് ഫേക്ക് ടെക്നോളജി ഉപയോഗിച്ച് സുഹൃത്തിന്റെ മുഖവും ശബ്ദവും ഒക്കെ വ്യാജമായി നിർമിച്ചു വീഡിയോ കോൾ ചെയ്താണ് തട്ടിപ്പ് നടത്തിയത് എന്ന് കേൾക്കുമ്പോൾ തന്നെ മനസിലാക്കാം എഐയുടെ മറുവശം എത്രത്തോളം ശ്രദ്ധിക്കേണ്ടിയിരിക്കുന്നു എന്ന്.
സമാനരീതിയിൽ മെയ് മാസത്തിൽ ചൈനയിലെ ഒരാൾക്ക് നഷ്ടപെട്ടത് അഞ്ച് കോടിയിലധികം രൂപയാണ്.കിലോമീറ്ററുകൾ അകലെയാണെങ്കിലും ഈ രണ്ട് പേരും പറ്റിക്കപ്പെട്ടത് ഒറിജിനലിനെ വെല്ലുന്ന തരത്തിൽ സൃഷ്ടിക്കപ്പെട്ട പരിചിതമായ മുഖങ്ങൾ കണ്ടിട്ടാണ്. ആരെ വേണമെങ്കിലും എങ്ങനെ വേണമെങ്കിലും ഏത് സമയത്തും എന്ത് സാഹചര്യത്തിന് വേണ്ടിയും ഉപയോഗിച്ചേക്കാം എന്ന് ചുരുക്കം !
പരിചിതമല്ലാത്ത നമ്പറുകളിൽ നിന്നും ഐഡിയിൽ നിന്നും പരിചയമുള്ളവരുടെ വിഡിയോകോളുകൾ ജാഗ്രതയോടുകൂടി എടുക്കുന്നത് വഴി ഒരു പരിധി വരെ ഇത്തരത്തിലുള്ള തട്ടിപ്പിൽ നിന്ന് രക്ഷ നേടാൻ കഴിയും. മാത്രമല്ല, ഡീപ്പ് ഫേക്ക് വീഡിയോ ദൃശ്യങ്ങൾക്ക് പൊതുവെ ഗുണമേന്മയും വ്യക്തതയും വളരെ കുറവായിരിക്കും. ഇവയിൽ വാട്ടർമാർക്കുകൾ, പശ്ചാത്തലം, സംസാര രീതി എന്നിവയെല്ലാം ശ്രദ്ധിക്കേണ്ടതാണ്. വീഡിയോ കോളിന്റെ സൈസിലുള്ള അസ്വാഭാവികത വഴിയും ഇത് ഡീപ് ഫേക്ക് ഉപയോഗിച്ചുള്ള തട്ടിപ്പാണോ എന്ന് മനസിലാക്കാം. ഏറ്റവുമൊടുവിൽ വിളിച്ചയാളുടെ യഥാർത്ഥ ഫോൺ നമ്പറിൽ വിളിച്ച് കാര്യം സ്ഥിരീകരിച്ച് വേണം പണം അയക്കണോ വേണ്ടയോ എന്ന് തീരുമാനിക്കാൻ.
തട്ടിപ്പ് മേഖലയിൽ മാത്രമല്ല, കലാരംഗത്തും എഐയുടെ ഉപയോഗം വളരെയധികം ആശങ്ക ഉയർത്തികൊണ്ടിരിക്കുകയാണ്. കഴിഞ്ഞ കുറച്ച് ദിവസങ്ങളായി സോഷ്യൽ മീഡിയയിൽ വൈറലായി കൊണ്ടിരിക്കുന്ന ഹിസ് ഹൈനസ് അബ്ദുള്ള എന്ന ചിത്രത്തിലെ ഗാനം പാടുന്ന മോഹൻലാലിന്റെ മുഖമുള്ള ഡീപ് ഫേക്ക് വീഡിയോയും ഹോളിവുഡ് ക്ലാസിക് ചിത്രം ഗോഡ്ഫാദറിൻറെ മോളിവുഡ് പതിപ്പ് എന്ന പേരിൽ എത്തിയ വീഡിയോയും എല്ലാം കയ്യടി നേടുമ്പോഴും ഇതിന്റെ ദൂഷ്യവശങ്ങൾ ആളുകൾ ചിന്തിക്കുന്നില്ല.
ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ സഹായത്തോടെ കൃത്രിമമായി നിർമിക്കുന്ന യാഥാർത്ഥമെന്ന് തോന്നിപ്പിക്കുന്ന ചിത്രങ്ങൾ, വീഡിയോകൾ, ശബ്ദത്തോടുകൂടിയുള്ള ഉള്ളടക്കങ്ങളെയാണ് ഡീപ് ഫേക്കുകൾ എന്ന് വിളിക്കുന്നത്. ഇതിനായി ലഭ്യമായ ഡാറ്റയിൽ നിന്ന് മുഖഭാവങ്ങളും ആംഗ്യങ്ങളും എന്തിന് സംസാരം വരെയുള്ള പാറ്റേണുകൾ വിശകലനം ചെയ്യുകയും പഠിക്കുകയും ചെയ്യും. വളരെ പെട്ടെന്ന് തന്നെ എഐയുടെ ഫേക്ക് ചിത്രമോ വീഡിയോയോ നിർമിക്കാൻ സാധിക്കുന്നു.
ഇവ നിർമിക്കാൻ വലിയ സാങ്കേതിക പരിജ്ഞാനവും ആവശ്യമില്ല എന്നും റിപോർട്ടുകൾ പറയുന്നു. മാത്രമല്ല, ഫേക്ക് വീഡിയോകൾ നിർമിക്കാൻ സഹായിക്കുന്ന ചില ആപ്പുകളും സോഫ്റ്റ് വെയറുകളും ഉണ്ട്. ഇവയെല്ലാം ഉപയോഗിച്ചാണ് പുതിയ തട്ടിപ്പുകാർ രംഗത്തെത്തിയിരിക്കുന്നത്. ഇതിലൂടെ ശബദം മാറ്റാൻ സാധിക്കും എന്നതും തട്ടിപ്പിന്റെ വ്യാപ്തി കൂട്ടുന്നു.
രാഷ്ട്രീയ രംഗത്തും ഇവയുടെ ഉപയോഗം മൂലമുള്ള പ്രശ്നങ്ങൾ ഉണ്ടാകാനുള്ള സാധ്യത വളരെ കൂടുതലാണ്. വ്യാജവാർത്തകളോ തെറ്റായ വിവരങ്ങളോ സൃഷ്ടിക്കാനായി ഡീപ് ഫേക്കുകളെ ഉപയോഗിച്ചാൽ അത് വലിയ രീതിയിൽ സമൂഹത്തെ ബാധിക്കും എന്ന് തീർച്ചയാണ്. നിമിഷ നേരംകൊണ്ട് ഇത്തരത്തിലുള്ള വീഡിയോകളും ചിത്രങ്ങളും വൈറലാകും എന്നതുകൊണ്ട് തന്നെ ഇവയുടെ മുന്നേറ്റം ഏത് രീതിയിൽ ലോകത്തെ ബാധിക്കും എന്നതും ചിന്തിക്കേണ്ടിയിരിക്കുന്നു.
Read more
സാമ്പത്തിക തട്ടിപ്പ്, പോണോഗ്രഫി, വ്യാജവാർത്തകൾ തുടങ്ങിയ മേഖലകളിൽ പോലും ഡീപ് ഫേക്ക് വലിയ രീതിയിൽ ദുരുപയോഗം ചെയ്യപ്പെടുന്നുണ്ട് എന്നാണ് റിപ്പോർട്ടുകൾ പറയുന്നത്. മനുഷ്യരാശിക്ക് ഭീഷണിയായി എഐ മാറുന്നു എന്ന അപകടമാണ് ഇവയെല്ലാം നമുക്ക് കാണിച്ചു തരുന്നത്. കാലം മാറുന്നുവെന്ന് മനസിലാക്കുന്ന നമ്മൾ ഇവയുടെ കഴിവിൽ കയ്യടിക്കുന്ന സമയത്ത് തന്നെ ഇവയുടെ ദോഷവശങ്ങൾ കൂടി മനസിലാക്കി ജാഗ്രതയോടെ നിൽക്കേണ്ടതാണ്.