ਆਸਟ੍ਰੇਲੀਆ ਵਿੱਚ ਬੈਂਕਿੰਗ ਧੋਖਾਧੜੀ ਦਾ ਨਵਾਂ ਰੁਝਾਨ: ਅਪਰਾਧੀ ਬੈਂਕਾਂ ਨੂੰ ਠੱਗਣ ਲਈ ਕਰ ਰਹੇ ਹਨ AI ਦੀ ਵਰਤੋਂ

ਆਸਟ੍ਰੇਲੀਆ ਵਿੱਚ ਸਾਈਬਰ ਅਪਰਾਧੀਆਂ ਨੇ ਬੈਂਕਾਂ ਅਤੇ ਗਾਹਕਾਂ ਨੂੰ ਚੂਨਾ ਲਗਾਉਣ ਲਈ ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਦੀ ਵਰਤੋਂ ਕਰਨੀ ਸ਼ੁਰੂ ਕਰ ਦਿੱਤੀ ਹੈ। ਰਿਪੋਰਟਾਂ ਅਨੁਸਾਰ, ਅਪਰਾਧੀ 'ਡੀਪਫੇਕ' (Deepfake) ਤਕਨੀਕ ਰਾਹੀਂ ਲੋਕਾਂ ਦੀਆਂ ਆਵਾਜ਼ਾਂ ਅਤੇ ਚਿਹਰਿਆਂ ਦੀ ਨਕਲ ਕਰਕੇ ਬੈਂਕ ਖਾਤਿਆਂ ਤੱਕ ਪਹੁੰਚ ਕਰ ਰਹੇ ਹਨ। ਆਸਟ੍ਰੇਲੀਆਈ ਅਧਿਕਾਰੀਆਂ ਨੇ ਇਸ ਨੂੰ ਬੈਂਕਿੰਗ ਸੁਰੱਖਿਆ ਲਈ ਇੱਕ ਵੱਡੀ ਚੁਣੌਤੀ ਕਰਾਰ ਦਿੱਤਾ ਹੈ।

Mar 26, 2026 - 03:24
 0  0

Share -

ਆਸਟ੍ਰੇਲੀਆ ਵਿੱਚ ਬੈਂਕਿੰਗ ਧੋਖਾਧੜੀ ਦਾ ਨਵਾਂ ਰੁਝਾਨ: ਅਪਰਾਧੀ ਬੈਂਕਾਂ ਨੂੰ ਠੱਗਣ ਲਈ ਕਰ ਰਹੇ ਹਨ AI ਦੀ ਵਰਤੋਂ

ਆਸਟ੍ਰੇਲੀਆ ਦੇ ਬੈਂਕਿੰਗ ਖੇਤਰ ਵਿੱਚ ਸੁਰੱਖਿਆ ਨੂੰ ਲੈ ਕੇ ਗੰਭੀਰ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਹੋ ਗਈਆਂ ਹਨ। ਤਕਨਾਲੋਜੀ ਦੇ ਵਧਦੇ ਪਸਾਰ ਦੇ ਨਾਲ ਹੀ ਅਪਰਾਧੀਆਂ ਨੇ ਹੁਣ ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਨੂੰ ਹਥਿਆਰ ਬਣਾ ਲਿਆ ਹੈ। ਤਾਜ਼ਾ ਰਿਪੋਰਟਾਂ ਅਨੁਸਾਰ, ਆਸਟ੍ਰੇਲੀਆ ਵਿੱਚ ਕਈ ਅਜਿਹੇ ਮਾਮਲੇ ਸਾਹਮਣੇ ਆਏ ਹਨ ਜਿੱਥੇ ਧੋਖੇਬਾਜ਼ਾਂ ਨੇ AI ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਬੈਂਕਾਂ ਦੇ ਸੁਰੱਖਿਆ ਘੇਰੇ ਨੂੰ ਤੋੜਿਆ ਹੈ।

ਅਪਰਾਧੀ 'ਡੀਪਫੇਕ' ਆਡੀਓ ਅਤੇ ਵੀਡੀਓ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਗਾਹਕਾਂ ਦੀ ਹੂਬਹੂ ਨਕਲ ਤਿਆਰ ਕਰ ਰਹੇ ਹਨ। ਇਸ ਤਕਨੀਕ ਰਾਹੀਂ ਉਹ ਬੈਂਕ ਦੇ ਕਾਲ ਸੈਂਟਰਾਂ ਨੂੰ ਇਹ ਵਿਸ਼ਵਾਸ ਦਿਵਾਉਣ ਵਿੱਚ ਕਾਮਯਾਬ ਹੋ ਜਾਂਦੇ ਹਨ ਕਿ ਉਹ ਅਸਲੀ ਖਾਤਾ ਧਾਰਕ ਹਨ। ਇੱਕ ਵਾਰ ਜਦੋਂ ਉਹ ਬੈਂਕ ਦੇ ਵੌਇਸ ਬਾਇਓਮੀਟ੍ਰਿਕਸ (Voice Biometrics) ਜਾਂ ਵੀਡੀਓ ਵੈਰੀਫਿਕੇਸ਼ਨ ਨੂੰ ਪਾਰ ਕਰ ਲੈਂਦੇ ਹਨ, ਤਾਂ ਉਹ ਆਸਾਨੀ ਨਾਲ ਫੰਡ ਟ੍ਰਾਂਸਫਰ ਕਰ ਲੈਂਦੇ ਹਨ ਜਾਂ ਖਾਤੇ ਦੇ ਵੇਰਵੇ ਬਦਲ ਦਿੰਦੇ ਹਨ।

ਆਸਟ੍ਰੇਲੀਆਈ ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਮਾਹਿਰਾਂ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ AI ਰਾਹੀਂ ਕੀਤੀ ਜਾ ਰਹੀ ਇਹ ਧੋਖਾਧੜੀ ਇੰਨੀ ਸਟੀਕ ਹੁੰਦੀ ਹੈ ਕਿ ਮਨੁੱਖੀ ਕੰਨਾਂ ਜਾਂ ਸਾਧਾਰਨ ਸਾਫਟਵੇਅਰ ਲਈ ਅਸਲੀ ਅਤੇ ਨਕਲੀ ਆਵਾਜ਼ ਵਿੱਚ ਫਰਕ ਕਰਨਾ ਮੁਸ਼ਕਲ ਹੋ ਜਾਂਦਾ ਹੈ। ਬੈਂਕਾਂ ਨੂੰ ਹੁਣ ਆਪਣੀ ਸੁਰੱਖਿਆ ਪ੍ਰਣਾਲੀ ਨੂੰ ਅਪਡੇਟ ਕਰਨ ਅਤੇ ਬਹੁ-ਪੱਧਰੀ ਪਛਾਣ (Multi-factor authentication) 'ਤੇ ਜ਼ੋਰ ਦੇਣ ਲਈ ਕਿਹਾ ਗਿਆ ਹੈ।

ਆਸਟ੍ਰੇਲੀਆ ਵਿੱਚ ਰਹਿ ਰਹੇ ਪੰਜਾਬੀ ਭਾਈਚਾਰੇ ਲਈ ਇਹ ਖ਼ਬਰ ਬੇਹੱਦ ਅਹਿਮ ਹੈ। ਬਹੁਤ ਸਾਰੇ ਪ੍ਰਵਾਸੀ ਪੰਜਾਬੀ ਰੋਜ਼ਾਨਾ ਬੈਂਕਿੰਗ ਲਈ ਡਿਜੀਟਲ ਪਲੇਟਫਾਰਮਾਂ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ। ਮਾਹਿਰਾਂ ਨੇ ਸਲਾਹ ਦਿੱਤੀ ਹੈ ਕਿ ਕਿਸੇ ਵੀ ਅਣਜਾਣ ਲਿੰਕ 'ਤੇ ਕਲਿੱਕ ਨਾ ਕਰੋ ਅਤੇ ਆਪਣੀ ਨਿੱਜੀ ਜਾਣਕਾਰੀ ਜਾਂ ਆਵਾਜ਼ ਦੇ ਨਮੂਨੇ ਸੋਸ਼ਲ ਮੀਡੀਆ 'ਤੇ ਸਾਂਝੇ ਕਰਨ ਵੇਲੇ ਸਾਵਧਾਨੀ ਵਰਤੋ।

Serious security concerns have emerged within Australia’s banking sector. With the expansion of technology, criminals have now turned Artificial Intelligence (AI) into a weapon. Recent reports indicate several cases in Australia where fraudsters have used AI to breach bank security perimeters.

Criminals are utilizing 'Deepfake' audio and video to create identical replicas of customers. Through this technology, they successfully convince bank call centers that they are the genuine account holders. Once they bypass the bank's voice biometrics or video verification, they easily transfer funds or alter account details.

Australian cyber security experts state that fraud conducted via AI is so precise that it becomes difficult for human ears or ordinary software to distinguish between real and fake voices. Banks have now been urged to update their security systems and emphasize multi-factor authentication.

This news is highly significant for the Punjabi community living in Australia. Many expatriate Punjabis use digital platforms for their daily banking needs. Experts have advised against clicking on unknown links and cautioned individuals about sharing personal information or voice samples on social media.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow