Deepfake дәуірі. Алаяқтар жаңа деңгейге өтті

Цифрлық дәуірдің жаңа белесі – жасанды интеллект. Бұл технология адам өмірін жеңілдетіп қана қоймай, алаяқтар үшін де бұрын-сонды болмаған мүмкіндіктер ашты. Дауыс көшірмесі, жалған видеолар, фейк аккаунттар – бүгінде мұның бәрі қарапайым қылмыскердің емес, жоғары технологияны меңгерген заманауи алаяқтың таптырмас құралына айналып отыр.
Жасанды интеллект технологияларының дамуына байланысты алаяқтар азаматтарды алдаудың жаңа тәсілдерін игеріп жатыр. Олар енді дауыс көшірмесін жасап, жалған видеолар құрастырып, таныс адамдардың бейнесін имитациялап, тіпті нейрожелілер арқылы жеке аккаунттарды бұзып кіре алатын деңгейге жетті.
2024 жылдан бері әлемде deepfake технологияларын пайдалана отырып жасалатын алаяқтық әрекеттер күрт өскені байқалды. АҚШ-тың Федералды тергеу бюросы тек өткен жылы мұндай 5 мыңнан астам істі тіркеген. Бұл 2021 жылмен салыстырғанда үш еседен аса өсім. Еуропалық Одақтың Киберқауіпсіздік агенттігінің (ENISA) есебіне сай, 2023 жылы deepfake көмегімен жасалған алаяқтықтардан келген шығын 1,2 миллиард еуроны құраған. Мұндай технологиялар адамның бейнесі мен дауысын сол күйінде көшіруге мүмкіндік береді. Ал бұл адам санасын алдаудың ең қауіпті түрі. Біздің елді де бұл қауіп айналып өте қоймады. Ішкі істер министрлігіне қарасты Киберқылмыспен күрес департаментінің мәліметінше, 2024 жылдың алғашқы алты айында әлеуметтік желілер арқылы жасалған фишингтік шабуылдар 27%-ға артқан. Дауысты жасанды түрде қайта өңдеу арқылы жасалатын қылмыстар саны да көбейіп келеді. Алаяқтар туыс немесе дос болып хабарласып, ақша сұрайтын жағдайлар жиі кездесуде. Бірнеше минуттық аудиожазбасы бар адамның дауысын жасанды интеллект көшіріп алып, оның атынан сөйлейді. Мұндай алаяқтыққа қарсы күресу – құқық қорғау органдары үшін үлкен сын. Осы орайда Жамбыл облысы полиция департаментінің қызметкерлері аймақтағы тұрғындарды жаңа қауіптерден сақтау мақсатында профилактикалық жұмыстарды күшейтті.
Полицейлер мектептерге, жоғары оқу орындарына, ұйымдарға және тұрғын үй кешендеріне барып, ақпараттық парақшалар таратып, алаяқтардың құрбаны болмаудың жолдарын түсіндіруде. Жамбыл облысы ПД киберқылмыспен күрес басқармасының бастығы Уәлихан Ағыбаевтың айтуынша, жасанды интеллекттің дамуы қоғамға көптеген оң өзгерістер әкелсе, екінші жағынан, ол қылмыстық әрекеттердің де жаңа формаларын өмірге әкеліп жатыр.
«Бұрын қылмыскерлер банктер мен полиция атынан хабарласатын болса, қазір олар жақын туыстарыңыздың дауысын көшіріп, шұғыл түрде ақша аударуды сұрауы мүмкін. Сонымен қатар кейбір жағдайларда алаяқтар адамдардың бет-әлпетін 3D модель арқылы жасап, бейнеқоңырау кезінде тікелей эфирде имитация жүргізеді. Бұрын мұндай технология тек кинематография мен ойын индустриясында қолданылса, енді ол алаяқтардың құралына айналды. Deepfake технологиясын қолдану үшін бұрын арнайы білім мен жабдық қажет болса, бүгінде қарапайым смартфон мен тегін қосымшалар арқылы-ақ бірнеше минут ішінде шынайы көрінетін жалған бейне жасауға болады. Бұл технологиялар алаяқтықты шынайы етіп көрсететіндіктен, аса сақ болу қажет. Мұндай қауіп-қатерлерге қарсы тұру үшін мемлекеттер арнайы заңнамалық тетіктерді қабылдап, киберқауіпсіздік жүйесін күшейтіп, азаматтардың цифрлық сауаттылығын арттыруы қажет. 2025 жылдың басында Қазақстанда «Жасанды интеллект технологиялары мен киберқауіпсіздік туралы» заң жобасы талқылауға ұсынылған. Онда deepfake және басқа да генеративті AI құралдарын заңсыз мақсатта пайдалануға қарсы нақты жазалау шаралары қарастырылған», – дейді.
Жағдайды ушықтыратын тағы бір мәселе – әлеуметтік желілердегі аккаунттардың бұзылуы. Алаяқтар нейрожелілер арқылы адамның жазу мәнерін көшіріп алып, оның атынан посттар мен хабарламалар таратады. Бұл тек жеке адамдар үшін ғана емес, қоғам үшін де үлкен қауіп. Бұқаралық санаға әсер ету, жалған ақпарат тарату, жалған саяси көзқарастар қалыптастыру – бүгінде технологияның көлеңкелі тұстары. Осы орайда жасанды интеллект маманы Рустам Алтайұлы бірқатар қауіпті санамалап өтті.
«Біз жасанды интеллектпен күресе алмаймыз, бірақ оның теріс пайдалану жолдарын азайтуға міндеттіміз. Ең алдымен, азаматтардың цифрлық сауаттылығын арттыру қажет. Әр адам жеке деректерін сақтап, беймәлім қоңыраулар мен хабарламаларға мұқият қарауы тиіс. Қазіргі таңда кез келген бейне немесе аудио хабарламаның жалған болуы ықтимал. Жасанды интеллектің deepfake технологиясы жалған видеолар жасауға мүмкіндік береді. WhatsApp, Telegram сынды мессенджерлерде таралатын бейнематериалдар кейде шын адамға ұқсайтын, бірақ толықтай жасанды бейнеден тұруы мүмкін. Бейнеқоңырау кезінде адамның түрі мен мимикасын дәл көшіретін жүйелер пайда болды. Сарапшылар бұл технологияларды «сандық камуфляж» деп те атайды. Көптеген қолданушылар жалғандықты ажырата алмай, оңай алданып жатады», – дейді маман.
С. Бақберген
Жамбыл облысы