Close Menu
Khaber Aaj Ki
  • टॉप न्यूज़

  • ख़बर आज की खास

  • दुनिया

  • पॉलिटिक्स

  • खेल

  • मनोरंजन

  • एजुकेशन

  • भारत

  • टेक्नोलॉजी

  • लाइफस्टाइल

  • बिजनेस

  • ज्योतिष

Tags
aaj ki badi khabar (7) Aamir Khan (5) ai (5) bharat (4) Bhopal (11) BJP (16) Bollywood (32) Bollywood News (7) Cricket (4) donald trump (8) health (6) Hera Pheri 3 (4) india (10) indian army (4) indian cricket team (5) Indian Culture (4) India vs England (4) ipl2025 (6) ipl 2025 (4) Israel Iran War (5) ISRO (4) jammu kashmir (7) khaber aaj ki (494) khaberaajki (232) khaber aaj ki khaas (5) LIFESTYLE (7) lifestyle news (17) Madhya Pradesh (10) MADHYAPRADESH (7) modi (5) mp news today (4) Narendra modi (6) operation sindoor (22) pakistan (5) PM Modi (7) Punjab Kings (4) shubhanshu shukla (4) sports news (6) technology (4) top news (73) UP (5) vijay shah (6) viral video (6) virat kohli (4) Weather Alert (4)
Facebook X (Twitter) Instagram
Khaber Aaj Ki
  • होम
  • वीडियो
  • वेब स्टोरीज
  • टॉप न्यूज़

  • ख़बर आज की खास

  • दुनिया

  • पॉलिटिक्स

  • खेल

  • मनोरंजन

  • एजुकेशन

  • भारत

  • टेक्नोलॉजी

  • लाइफस्टाइल

  • बिजनेस

  • ज्योतिष

Khaber Aaj Ki
  • टॉप न्यूज़

  • ख़बर आज की खास

  • दुनिया

  • पॉलिटिक्स

  • खेल

  • मनोरंजन

  • एजुकेशन

  • भारत

  • टेक्नोलॉजी

  • लाइफस्टाइल

  • बिजनेस

  • ज्योतिष

Home » अपनों की आवाज़ में कॉल आना खतरे की घंटी, हो सकती है AI ठगी!
टेक्नोलॉजी

अपनों की आवाज़ में कॉल आना खतरे की घंटी, हो सकती है AI ठगी!

swati vaishnavBy swati vaishnavMay 25, 2025Updated:May 25, 2025No Comments3 Mins Read

आज के डिजिटल युग में तकनीक ने हमारे काम-काज को बहुत आसान बना दिया है। लेकिन तकनीक के साथ-साथ ठगों ने भी नए-नए तरीके खोज लिए हैं, खासकर आर्टिफिशियल इंटेलिजेंस (AI) की मदद से। AI की एक नई तकनीक है — Voice Cloning, यानी आपकी जैसी आवाज़ बनाना। यह तकनीक शुरुआत में बहुत मददगार साबित हो सकती थी, लेकिन अब इसे गलत इस्तेमाल करके ठगी की घटनाएं बढ़ने लगी हैं।

Voice Cloning क्या है?

Voice Cloning तकनीक के जरिये किसी व्यक्ति की आवाज़ की नकली कॉपी बनाई जाती है। इसमें कंप्यूटर को उस व्यक्ति की आवाज़ के कई रिकॉर्डिंग नमूने दिए जाते हैं, जिससे वह व्यक्ति की आवाज़ बिल्कुल असली जैसी बनाता है।

भारत में Voice Cloning का गलत इस्तेमाल कैसे हो रहा है?

भारत में कई जगहों पर ठग अब इसी तकनीक का इस्तेमाल कर लोगों को झांसा देकर उनके साथ ठगी कर रहे हैं। वे आपकी या आपके परिवार की आवाज़ की नकली कॉल करके पैसे या बैंक डिटेल्स मांग लेते हैं। इस तरह की ठगी की घटनाएं कई राज्यों में हुई हैं:

  • दिल्ली में एक परिवार को उनकी मां की आवाज़ में कॉल आया जिसमें आपातकालीन हालत बताकर पैसे मांगे गए।
  • मुंबई में एक व्यापारी के बेटे की नकली आवाज़ में कॉल करके बैंक से पैसे ट्रांसफर करवाने की कोशिश की गई।
  • हैदराबाद में एक व्यक्ति को उनके दोस्त की आवाज़ में कॉल कर फोन पेमेंट की डिटेल मांगने की ठगी हुई।
  • पंजाब में किसान को उनकी बेटी की आवाज़ में कॉल कर सरकारी योजनाओं के नाम पर ठगी की गई।

इन घटनाओं में ठगों ने आवाज़ की नकली कॉपी से भरोसा जीतकर, लोगों के दिलों और दिमाग़ पर छाप छोड़ी और बड़े पैमाने पर ठगी की।

ठग यह काम कैसे करते हैं?

  1. पहले आवाज़ की रिकॉर्डिंग जुटाते हैं
    सोशल मीडिया, कॉल रिकॉर्डिंग या अन्य स्रोतों से आपकी आवाज़ के नमूने एकत्रित करते हैं।
  2. AI मॉडल में आवाज़ बनाते हैं
    कंप्यूटर के प्रोग्राम की मदद से आपकी आवाज़ की नकली कॉपी तैयार करते हैं।
  3. झूठे कॉल करते हैं
    आपकी आवाज़ की नकली कॉपी से कॉल करके झूठे बहाने बनाते हैं, जैसे – “पैसे तुरंत ट्रांसफर करो”, “तुम्हारे खाते में धोखाधड़ी हुई है” या “तुम्हें पुलिस ने फोन किया है”।
  4. डिटेल्स चुराते हैं और पैसे निकालते हैं।

इससे बचने के लिए क्या करें?

  • पहचानने की कोशिश करें
    आवाज़ चाहे कितनी भी असली लगे, अगर कॉल में आपसे पैसे, ओटीपी या बैंक डिटेल्स मांगी जाएं तो तुरंत शक करें।
  • सवाल पूछें
    कॉल करने वाले से ऐसे सवाल पूछें, जिनका जवाब सिर्फ असली इंसान ही दे सकता है।
  • पैसे ट्रांसफर करने से पहले पुष्टि करें
    कॉल करने वाले से अलग से मिलने या मैसेज करके बात करें, तुरंत पैसा न भेजें।
  • अपनी जानकारी साझा न करें
    कभी भी अपने पासवर्ड, ओटीपी या बैंक डिटेल्स किसी को न दें।
  • साइबर क्राइम सेल को रिपोर्ट करें
    अगर आपको लगता है कि आप ठगी का शिकार हो रहे हैं, तो तुरंत पुलिस या साइबर क्राइम विभाग से संपर्क करें।

तकनीक से बचाव के उपाय

  • अपने फोन में एंटीवायरस और सुरक्षा ऐप इंस्टॉल करें।
  • अपने बैंक खाते में दो-स्तरीय प्रमाणीकरण (2FA) लगाएं।
  • संदिग्ध कॉल और मैसेज से सावधान रहें।
  • सरकारी वेबसाइटों और विश्वसनीय स्रोतों से ही जानकारी लें।

निष्कर्ष

AI और Voice Cloning जैसी तकनीकों का गलत इस्तेमाल ठग अब बड़ी संख्या में कर रहे हैं। भारत में भी इस प्रकार के मामले तेजी से बढ़ रहे हैं, इसलिए हमें सतर्क रहना बहुत जरूरी है। अपनी आवाज़ चाहे कितनी भी अपने जैसी लगे, जब बात पैसे या निजी जानकारी की हो तो बिना जांच-परख के किसी पर भरोसा न करें।

सावधानी ही ठगी से बचाव की सबसे बड़ी चाबी है।

Read more
AI Fraud Cyber Crime Digital Safety Online Fraud Scam Alert Voice Cloning
Share. Facebook Telegram WhatsApp
swati vaishnav

    Related Posts

    ‘ना खाएगा, ना थकेगा, फिर भी करेगा परफेक्ट कोडिंग’ – किसने दी AI को नौकरी ?

    July 14, 2025

    5G के बाद अब 6G की उड़ान, भारत ने बढ़ाया इनोवेशन की ओर कदम

    July 12, 2025

    Flipkart की नई सर्विस शुरू, अब मिनटों में बेचिए खराब स्मार्टफोन

    July 11, 2025
    Leave A Reply Cancel Reply

    News

    तेज प्रताप यादव की वायरल पोस्ट ने मचाया सियासी हंगामा, लालू यादव ने पार्टी से निकाला

    May 25, 2025

    कहां गायब हो गई रामायण की शूर्पणखा ?

    June 3, 2025

    धर्मांतरण के लिए कोड वर्ड का इस्तेमाल करता था छांगुर बाबा, ATS की पूछताछ में खुलासा

    July 12, 2025

    ट्रंप सरकार का बड़ा फैसला: हार्वर्ड यूनिवर्सिटी से छीना विदेशी छात्रों को पढ़ाने का अधिकार

    May 23, 2025

    पहली बार अंतरिक्ष में होगी इंसुलिन और ब्लड-शुगर पर रिसर्च

    June 24, 2025

    बुरे फंस सकते हैं! Income Tax इन 10 ट्रांजेक्शन पर रखता है नजर, नंबर 7 वाली गलती हर कोई करता है

    June 12, 2025

    UP: सूदखोर की धमकी से तंग एयरफोर्स कर्मी ने की खुदकुशी, कहा- ‘पत्नी को उठा ले जाएगा’

    June 20, 2025

    Tata Stocks में गिरावट के बीच खुशखबरी! इस शेयर को मिला 2100 का टारगेट, CLSA ने दी Outperform रेटिंग

    June 12, 2025
    Load More

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    Facebook Instagram YouTube

    Information Links

    • टॉप न्यूज़
    • खबर आज की खास
    • मनोरंजन
    • एजुकेशन
    • टेक्नोलॉजी

    Quick Links

    • होम
    • वीडियो
    • वेब स्टोरीज
    • पॉलिटिक्स
    • देश – विदेश

    Useful Links

    • Privacy Policy
    • Terms & Conditions
    • Customer Policy

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    All Rights Reserved By Fortaxe Global

    Type above and press Enter to search. Press Esc to cancel.