Close Menu
Khaber Aaj Ki
  • टॉप न्यूज़

  • ख़बर आज की खास

  • दुनिया

  • पॉलिटिक्स

  • खेल

  • मनोरंजन

  • एजुकेशन

  • भारत

  • टेक्नोलॉजी

  • लाइफस्टाइल

  • बिजनेस

  • ज्योतिष

Tags
aaj ki badi khabar (7) Aamir Khan (5) ai (5) bharat (4) Bhopal (11) BJP (16) Bollywood (32) Bollywood News (7) Cricket (4) donald trump (8) health (6) Hera Pheri 3 (4) india (10) indian army (4) indian cricket team (5) Indian Culture (4) India vs England (4) ipl2025 (6) ipl 2025 (4) Israel Iran War (5) ISRO (4) jammu kashmir (7) khaber aaj ki (491) khaberaajki (232) khaber aaj ki khaas (5) LIFESTYLE (7) lifestyle news (17) Madhya Pradesh (10) MADHYAPRADESH (7) modi (5) mp news today (4) Narendra modi (6) operation sindoor (22) pakistan (5) PM Modi (7) Punjab Kings (4) shubhanshu shukla (4) sports news (6) technology (4) top news (73) UP (5) vijay shah (6) viral video (6) virat kohli (4) Weather Alert (4)
Facebook X (Twitter) Instagram
Khaber Aaj Ki
  • होम
  • वीडियो
  • वेब स्टोरीज
  • टॉप न्यूज़

  • ख़बर आज की खास

  • दुनिया

  • पॉलिटिक्स

  • खेल

  • मनोरंजन

  • एजुकेशन

  • भारत

  • टेक्नोलॉजी

  • लाइफस्टाइल

  • बिजनेस

  • ज्योतिष

Khaber Aaj Ki
  • टॉप न्यूज़

  • ख़बर आज की खास

  • दुनिया

  • पॉलिटिक्स

  • खेल

  • मनोरंजन

  • एजुकेशन

  • भारत

  • टेक्नोलॉजी

  • लाइफस्टाइल

  • बिजनेस

  • ज्योतिष

Home » अपनों की आवाज़ में कॉल आना खतरे की घंटी, हो सकती है AI ठगी!
टेक्नोलॉजी

अपनों की आवाज़ में कॉल आना खतरे की घंटी, हो सकती है AI ठगी!

swati vaishnavBy swati vaishnavMay 25, 2025Updated:May 25, 2025No Comments3 Mins Read

आज के डिजिटल युग में तकनीक ने हमारे काम-काज को बहुत आसान बना दिया है। लेकिन तकनीक के साथ-साथ ठगों ने भी नए-नए तरीके खोज लिए हैं, खासकर आर्टिफिशियल इंटेलिजेंस (AI) की मदद से। AI की एक नई तकनीक है — Voice Cloning, यानी आपकी जैसी आवाज़ बनाना। यह तकनीक शुरुआत में बहुत मददगार साबित हो सकती थी, लेकिन अब इसे गलत इस्तेमाल करके ठगी की घटनाएं बढ़ने लगी हैं।

Voice Cloning क्या है?

Voice Cloning तकनीक के जरिये किसी व्यक्ति की आवाज़ की नकली कॉपी बनाई जाती है। इसमें कंप्यूटर को उस व्यक्ति की आवाज़ के कई रिकॉर्डिंग नमूने दिए जाते हैं, जिससे वह व्यक्ति की आवाज़ बिल्कुल असली जैसी बनाता है।

भारत में Voice Cloning का गलत इस्तेमाल कैसे हो रहा है?

भारत में कई जगहों पर ठग अब इसी तकनीक का इस्तेमाल कर लोगों को झांसा देकर उनके साथ ठगी कर रहे हैं। वे आपकी या आपके परिवार की आवाज़ की नकली कॉल करके पैसे या बैंक डिटेल्स मांग लेते हैं। इस तरह की ठगी की घटनाएं कई राज्यों में हुई हैं:

  • दिल्ली में एक परिवार को उनकी मां की आवाज़ में कॉल आया जिसमें आपातकालीन हालत बताकर पैसे मांगे गए।
  • मुंबई में एक व्यापारी के बेटे की नकली आवाज़ में कॉल करके बैंक से पैसे ट्रांसफर करवाने की कोशिश की गई।
  • हैदराबाद में एक व्यक्ति को उनके दोस्त की आवाज़ में कॉल कर फोन पेमेंट की डिटेल मांगने की ठगी हुई।
  • पंजाब में किसान को उनकी बेटी की आवाज़ में कॉल कर सरकारी योजनाओं के नाम पर ठगी की गई।

इन घटनाओं में ठगों ने आवाज़ की नकली कॉपी से भरोसा जीतकर, लोगों के दिलों और दिमाग़ पर छाप छोड़ी और बड़े पैमाने पर ठगी की।

ठग यह काम कैसे करते हैं?

  1. पहले आवाज़ की रिकॉर्डिंग जुटाते हैं
    सोशल मीडिया, कॉल रिकॉर्डिंग या अन्य स्रोतों से आपकी आवाज़ के नमूने एकत्रित करते हैं।
  2. AI मॉडल में आवाज़ बनाते हैं
    कंप्यूटर के प्रोग्राम की मदद से आपकी आवाज़ की नकली कॉपी तैयार करते हैं।
  3. झूठे कॉल करते हैं
    आपकी आवाज़ की नकली कॉपी से कॉल करके झूठे बहाने बनाते हैं, जैसे – “पैसे तुरंत ट्रांसफर करो”, “तुम्हारे खाते में धोखाधड़ी हुई है” या “तुम्हें पुलिस ने फोन किया है”।
  4. डिटेल्स चुराते हैं और पैसे निकालते हैं।

इससे बचने के लिए क्या करें?

  • पहचानने की कोशिश करें
    आवाज़ चाहे कितनी भी असली लगे, अगर कॉल में आपसे पैसे, ओटीपी या बैंक डिटेल्स मांगी जाएं तो तुरंत शक करें।
  • सवाल पूछें
    कॉल करने वाले से ऐसे सवाल पूछें, जिनका जवाब सिर्फ असली इंसान ही दे सकता है।
  • पैसे ट्रांसफर करने से पहले पुष्टि करें
    कॉल करने वाले से अलग से मिलने या मैसेज करके बात करें, तुरंत पैसा न भेजें।
  • अपनी जानकारी साझा न करें
    कभी भी अपने पासवर्ड, ओटीपी या बैंक डिटेल्स किसी को न दें।
  • साइबर क्राइम सेल को रिपोर्ट करें
    अगर आपको लगता है कि आप ठगी का शिकार हो रहे हैं, तो तुरंत पुलिस या साइबर क्राइम विभाग से संपर्क करें।

तकनीक से बचाव के उपाय

  • अपने फोन में एंटीवायरस और सुरक्षा ऐप इंस्टॉल करें।
  • अपने बैंक खाते में दो-स्तरीय प्रमाणीकरण (2FA) लगाएं।
  • संदिग्ध कॉल और मैसेज से सावधान रहें।
  • सरकारी वेबसाइटों और विश्वसनीय स्रोतों से ही जानकारी लें।

निष्कर्ष

AI और Voice Cloning जैसी तकनीकों का गलत इस्तेमाल ठग अब बड़ी संख्या में कर रहे हैं। भारत में भी इस प्रकार के मामले तेजी से बढ़ रहे हैं, इसलिए हमें सतर्क रहना बहुत जरूरी है। अपनी आवाज़ चाहे कितनी भी अपने जैसी लगे, जब बात पैसे या निजी जानकारी की हो तो बिना जांच-परख के किसी पर भरोसा न करें।

सावधानी ही ठगी से बचाव की सबसे बड़ी चाबी है।

Read more
AI Fraud Cyber Crime Digital Safety Online Fraud Scam Alert Voice Cloning
Share. Facebook Telegram WhatsApp
swati vaishnav

    Related Posts

    5G के बाद अब 6G की उड़ान, भारत ने बढ़ाया इनोवेशन की ओर कदम

    July 12, 2025

    Flipkart की नई सर्विस शुरू, अब मिनटों में बेचिए खराब स्मार्टफोन

    July 11, 2025

    YouTube कमाई के नए नियम ! 15 जुलाई से AI और Copy Content पर सख्ती

    July 10, 2025
    Leave A Reply Cancel Reply

    News

    ₹100 रोज बचाओ, 15 साल में बन जाओ लखपति — जानिए कैसे!

    June 13, 2025

    सरेंडर पाकिस्तान की फौज की नई पहचान? आतंकी आए, जवानों ने फेंकी बंदूकें – मस्तुंग कांड ने खोली पोल!

    June 26, 2025

    पटौदी ट्रॉफी का नाम बदलने पर सारा अली खान की खुशी, दिग्गज क्रिकेटर्स ने जताई नाराज़गी

    July 5, 2025

    IND vs ENG: गौतम गंभीर का भावुक बयान — ‘गंभीर नहीं, भारतीय क्रिकेट महत्वपूर्ण है’

    July 11, 2025

    रेलवे का बड़ा ऐलान! जुलाई में इन रूट की ट्रेनें कैंसिल, सफर से पहले जरूर चेक करें लिस्ट

    July 4, 2025

    77 साल बाद खुला भारत-तिब्बत का रहस्यमयी द्वार, अब देख सकेंगे ड्रैगन की सरहद! जानिए कैसे जा सकते हैं

    June 10, 2025

    वीरों की धरती: लाहौल घाटी का हिंसा गांव, जहां हर दिल में बसती है वर्दी की चाह

    May 15, 2025

    रेल टिकट कटाने के नियम में ये बड़ा बदलाव, अब वेटिंग पर लगेगी लगाम, भीड़ भी कम होगी

    June 21, 2025
    Load More

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    Facebook Instagram YouTube

    Information Links

    • टॉप न्यूज़
    • खबर आज की खास
    • मनोरंजन
    • एजुकेशन
    • टेक्नोलॉजी

    Quick Links

    • होम
    • वीडियो
    • वेब स्टोरीज
    • पॉलिटिक्स
    • देश – विदेश

    Useful Links

    • Privacy Policy
    • Terms & Conditions
    • Customer Policy

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    All Rights Reserved By Fortaxe Global

    Type above and press Enter to search. Press Esc to cancel.