• හිතවතී
    • අපි ගැන
    • අපට උදව් කරන්නන්
  • උපකාරක මධ්‍යස්ථානය

    අවවාදයයි!

    • කොවිඩ්-19 (COVID-19) සයිබර් ප්‍රහාර
    • සයිබර් ආරක්‍ෂක ඉඟි
    • සයිබර් ආරක්ෂණ තර්ජන
    • ආරක්ෂක අනතුරු ඇඟවීම්

    වැඩි විස්තර දැනගන්න

    • දැනුම සඳහා
    • සමාජ මාධ්‍ය ජාල
    • දෙමාපිය මාර්ගෝපදේශය
    • ළමා මාර්ගෝපදේශය
    • දැන් මොකද කරන්නේ

    නිරීක්ෂණය

    • අද කාලයේ සත්‍ය සිදුවීම්
    • වීඩියෝ
    • පත්තරේ කතා

  • දැන් මොකද කරන්නේ
  • පුවත් සහ සිදුවීම්
  • මාසික සඟරාව
  • අමතන්න
    • නිති අසන පැන
ඔබට යම් ගැටළුවක් ද? 011-421-6062   help@hithawathi.lk

වැලන්ටයින් තෑගි ගැන පොලිසියෙන් අනතුරු ඇඟවීමක්..

  • English
  • தமிழ்
හිතවතී
  • හිතවතී
    • අපි ගැන
    • අපට උදව් කරන්නන්
  • උපකාරක මධ්‍යස්ථානය

    අවවාදයයි!

    • කොවිඩ්-19 (COVID-19) සයිබර් ප්‍රහාර
    • සයිබර් ආරක්‍ෂක ඉඟි
    • සයිබර් ආරක්ෂණ තර්ජන
    • ආරක්ෂක අනතුරු ඇඟවීම්

    වැඩි විස්තර දැනගන්න

    • දැනුම සඳහා
    • සමාජ මාධ්‍ය ජාල
    • දෙමාපිය මාර්ගෝපදේශය
    • ළමා මාර්ගෝපදේශය
    • දැන් මොකද කරන්නේ

    නිරීක්ෂණය

    • අද කාලයේ සත්‍ය සිදුවීම්
    • වීඩියෝ
    • පත්තරේ කතා

  • දැන් මොකද කරන්නේ
  • පුවත් සහ සිදුවීම්
  • මාසික සඟරාව
  • අමතන්න
    • නිති අසන පැන

2020 සයිබර් ආරක්ෂණ තර්ජන – 01 – ඩීප්ෆේක්ස් (Deepfakes / ගැඹුරු ව්‍යාජත්වය)

  • මුල් පිටුව
  • උපකාරක මධ්‍යස්ථානය
  • සයිබර් ආරක්ෂණ තර්ජන
  • 2020 සයිබර් ආරක්ෂණ තර්ජන – 01 – ඩීප්ෆේක්ස් (Deepfakes / ගැඹුරු ව්‍යාජත්වය)

විකිපීඩියා මඟින් නිර්වචනය කර ඇති පරිදි, “ඩීප්ෆේක්ස් (Deepfakes / ගැඹුරු ව්‍යාජත්වය) යනු පුද්ගලයෙකුගේ දැනට පවතින ඡායාරූපයක් හෝ වීඩියෝ පටයක් ඇසුරෙන් කෘතිම ස්නායුක ජාල (neural networks) භාවිතා කරමින් වෙනත් කෙනෙකු හා සමාන තත්ත්වයට පත් කරන මාධ්‍යයකි. ඒවා බොහෝ විට ස්වයංක්‍රීය කේත (auto encoders) සහ උත්පාදක එදිරිවාදී ජාල (generative adversarial networks / GANs) ලෙස හඳුන්වන යන්ත්‍ර ඉගෙනීමේ ක්‍රම (machine learning techniques) උපයෝගී කරගනිමින් පවත්නා මාධ්‍ය (සත්‍ය ඡායාරූපය / වීඩියෝව) සඟවා, එහෙත් එය ප්‍රභව මාධ්‍ය සේ ඒකාබද්ධ කර නිර්මාණය කරයි. කීර්තිමත් හෝ ප්‍රසිද්ධ පුද්ගලයන්ගේ චරිතයට හානි කරන කාමුක දර්ශන, පළිගැනීමේ කාමුක දර්ශන, ව්‍යාජ ප්‍රවෘත්ති, ප්‍රෝඩාවන් සහ මූල්‍ය වංචා සිදුවීම් සමඟ ඩීප්ෆේක්ස් පුළුල් අවධානයක් ලබා ගෙන ඇත. කර්මාන්ත හා රජය යන දෙඅංශයෙන්ම මේවායේ භාවිතය පිළිබඳව හඳුනාගෙන ඒවා සීමා කරන ලෙස ප්‍රතිචාර දක්වා ඇත.”
https://en.wikipedia.org/wiki/Deepfake#/media/File:Deepfake_example.gif

ගැඹුරු ඉගෙනුම් පද්ධතියකට ඉලක්කගත පුද්ගලයෙකුගේ ඡායාරූප සහ වීඩියෝ විවිධ කෝණවලින් අධ්‍යයනය කිරීමෙන් සහ එහි කථන රටා, හැසිරීම අනුකරණය කිරීමෙන් ව්‍යාජ එකක් නිපදවිය හැක්කේ එම ඡායාරූප / වීඩියෝ සත්‍ය යැයි විශ්වාස කළ හැකි මට්ටමක තබමිනි.

මෙම තාක්ෂණය සිනමා කර්මාන්තයේ භාවිතා විය. 2018 අගෝස්තු මස බර්කලි හි පිහිටි කැලිෆෝනියා විශ්ව විද්‍යාලයේ පර්යේෂකයන් විසින් AI භාවිතා කරමින් දක්ෂ නර්තන හැකියාවන් පිළිබඳ හැඟීමක් ඇති කළ හැකි ව්‍යාජ නැටුම් යෙදුමක් හඳුන්වා දුන්හ. මෙම ව්‍යාපෘතිය මගින් ඩීප්ෆේක්ස් මුළු ශරීරයටම ගලපා පුළුල් විය; ඊට පෙර හිස හෝ මුහුණේ කොටස් කෙරෙහි පමණක් අවධානය යොමු කරමින් එය සිදු විය.

වාණිජ සංවර්ධනය

2018 ජනවාරි මාසයේදී ‘ෆේක්ඇප්’ (Fake App / ව්‍යාජ යෙදුම) නමින් ලියාපදිංචි කළ ඩෙස්ක්ටොප් යෙදුමක් දියත් කරන ලදී. මෙම යෙදුම පරිශීලකයන්ට (users) ඉතා පහසුවෙන් එකිනෙකාගේ මුහුණු හුවමාරු කර වීඩියෝ නිර්මාණය කිරීමට සහ බෙදා හදා ගැනීමට (share) ඉඩ සලසයි. 2019 වන විට, ‘ෆේස්ස්වැප්’ (Faceswap / මුහුණු හුවමාරුව) සහ විධාන රේඛා පාදක කරගත් ‘ඩීප්ෆේස්ලැබ්’ (DeepFaceLab / ගැඹුරු මුහුණු විද්‍යාගාරය) වැනි විවෘත-මූලාශ්‍ර (open-source) මෘදුකාංග විකල්පයන් විසින් ෆේක්ඇප් අභිබවා ගොස් ඇත.

වංචාවක් ලෙස

සමාජ ඉංජිනේරු වංචාවන්හි (social engineering scams) කොටසක් ලෙස ශ්‍රව්‍ය (audio) ඩීප්ෆේක්ස් භාවිතා කර ඇති අතර එමඟින් විශ්වාසදායක පුද්ගලයෙකුගෙන් උපදෙස් ලැබෙන ලෙස මවා පාමින් මිනිසුන් රවටා ඇත. 2019 දී එක්සත් ජනපදයේ බලශක්ති සමාගමක ප්‍රධාන විධායක නිලධාරියෙකුව දුරකථනයෙන් වංචා කරනු ලැබුවේ එම සමාගමේ මව් සමාගමේ (parent company) ප්‍රධාන විධායකයාගේ හඬ අනුකරණය සඳහා ශ්‍රව්‍ය ගැඹුරු තාක්‍ෂණය භාවිතා කළ පුද්ගලයෙකු විසින් යූරෝ 220,000 ක් හංගේරියානු බැංකු ගිණුමකට මාරු කරන ලෙස නියෝග කරමින්ය. වංචාකරු විසින් තුන් වතාවක් අමතා දෙවන ගෙවීමක් ඉල්ලා සිටි නමුත් ප්‍රධාන විධායක නිලධාරියා විසින් ඇමතුම ලබා දෙන ලද තැනැත්තාගේ දුරකථන අංකය ඔස්ට්‍රියානු අංකයක් බව වටහාගත් විට එය ප්‍රතික්ෂේප කරන ලදී.

සුප්‍රසිද්ධ දේශපාලන චරිත වැරදි ලෙස නිරූපණය කිරීම සඳහා ද ඩීප්ෆේක්ස් සහිත වීඩියෝ භාවිතා කර ඇත. ජනාධිපතිවරයකු පිස්සු දේවල් පවසන වීඩියෝවක් වැනි ප්‍රෝඩාවන් නිර්මාණය කිරීමට පවා එය යොදා ගත හැකිය.
https://www.youtube.com/watch?v=C_RAimMMslw

එපමණක් නොව, මිනිසුන්ට හිරිහැර කිරීමේ හෝ හානි කිරීමේ අරමුණින් මෙම තාක්‍ෂණය තුළින් කාමුක දර්ශන ඇති චිත්‍රපටවලටද පුද්ගලයින්ව ඇතුළත් කළ හැකිය. ඒ අනුව, වීඩියෝ නිර්මාණයක සත්‍යාපනය හෝ විශ්වසනීයත්වය පිළිබඳ ඩීප්ෆේක්ස් තීරණාත්මක කාරණයක් හෝ සැකයක් බවට පත් වනු ඇත.

වර්තමාන ලෝකයේ, මෙම තාක්ෂණය පවතින අතර එය ක්‍රියාවටද නැංවේ. එහි අර්ථය වන්නේ වීඩියෝ වැනි මාධ්‍ය දෙස අප මුළුමනින්ම නව දෘෂ්ටි කෝණයකින් බැලිය යුතු බවයි. කවුරුහරි ප්‍රසිද්ධ පුද්ගලයකුගේ හෝ දේශපාලනඥයෙකුගේ වීඩියෝ පටයක් සමාජ මාධ්‍යවල සංසරණය කරන්නේ නම් හෝ එහි මතභේදාත්මක යමක් ඇත්නම්, ඔබ මුලින්ම ඇසිය යුත්තේ එම වීඩියෝව පවා සත්‍යද යන්නයි.

එවැනි ඩීප්ෆේක් වීඩියෝවක් හඳුනා ගන්නේ කෙසේද?

එය බොහෝ දුරට “තාක්‍ෂණය” සමඟ බැඳී ඇති අභියෝගයකි. වඩාත්ම සුලභ ක්‍රමය වන්නේ ඩීප්ෆේක් වීඩියෝවක් නිර්මාණය කිරීම සඳහා භාවිතා කරන සමාන ඇල්ගොරිතම් (algorithm) භාවිතා කර හඳුනා ගැනීමයි. අනෙක් ක්‍රමය නම් ප්‍රභවය සත්‍යාපනය සඳහා තාක්ෂණය (blockchain / බ්ලොක්චේන්) භාවිතා කිරීමයි.

ඒ අනුව, ඩීප්ෆේක්ස් 2020 වසරේ ප්‍රධාන සයිබර් ආරක්ෂණ තර්ජන / ගැටළු වලින් එකක් ලෙස හඳුනාගෙන ඇත.

මූලාශ්‍ර:
https://en.wikipedia.org/wiki/Deepfake
https://www.cnbc.com/2019/10/14/what-is-deepfake-and-how-it-might-be-danrous.html
https://www.online-tech-tips.com/computer-tips/what-is-a-deepfake-and-how-are-they-made/

 

  • 2020 සයිබර් ආරක්ෂණ තර්ජන – 01 – ඩීප්ෆේක්ස් (Deepfakes / ගැඹුරු ව්‍යාජත්වය)
  • 2020 සයිබර් ආරක්ෂණ තර්ජන – 02 – 5G

හිතවතී

ලක් වසම් ලේඛකාධිකාරය විසින්
අරමුදල් සපයන ව්‍යාපෘතියකි.

ඉක්මන් සබැඳි

Sri Lanka CERT|CC
TechCERT
Internet Crime Complaint Centre
     
    Instagram

අපට උදව් කරන්නන්


කාර්යාල වේලාවන්

සතියේ දිනවල පෙ.ව. 08.30 සිට ප.ව. 05.00 දක්වා
සෙනසුරාදා දිනවල පෙ.ව. 08.30 සිට දහවල් 12.30 දක්වා
රජයේ නිවාඩු දිනයන් හි වසා ඇත.
(අප සේවාවේ ගුණාත්මකභාවය සහතික කිරීම සඳහා ඇමතුම් පටිගත විය හැක)

කතුහිමිකම © 2021 හිතවති. සියළු හිමිකම් ඇවිරිනි.

හිතවතී සමඟ සම්බන්ධවන්න
අපව අමතන්න 011-421-6062