Deepfake | కృత్రిమ మేధ (Artificial intelligence).. ఇది ప్రపంచ వ్యాప్తంగా సంచలనం సృష్టిస్తోంది. ప్రతి ఒక్కరి జీవితాల్లోనూ రోజూవారి దినచర్యగా మారిపోయింది. అయితే నాణేనికి రెండు వైపులా ఉన్నట్లే ఈ ఏఐ ఎంత ప్రయోజనకరమైనదో.. అంతే ప్రమాదకరమైనది కూడా. మానవాళి సాధించిన గొప్ప విజయాల్లో ఒకటైన ఏఐ టెక్నాలజీని కొందరు దుర్వినియోగం చేస్తున్నారు.
ముఖ్యంగా డీప్ఫేక్ వీడియోలు, ఫొటోలు ప్రపంచ వ్యాప్తంగా ఎన్నో రంగాలకు ముప్పుగా పరిణమిస్తున్నాయి. మన దేశంలోనూ ఈ డీప్ఫేక్ వ్యాప్తి కలవరపెడుతోంది. ఇప్పటికే ఏఐ ద్వారా రూపొందించిన ఫేక్ వీడియోలు, ఫొటోలు పలువురు సినీ, రాజకీయ ప్రముఖులను కుదిపేసిన విషయం తెలిసిందే. ఈ నేపథ్యంలో వీటికి చెక్ పెట్టేందుకు కేంద్రం పలు చర్యలు చేపట్టింది. ఇందులో భాగంగానే నకిలీలను గుర్తించేందుకు వీలుగా ప్రజలకు అవకగాహక కల్పించేలా కేంద్ర ప్రభుత్వానికి చెందిన ప్రెస్ ఇన్ఫర్మేషన్ బ్యూరో (press information bureau) తాజాగా ఓ వీడియో విడుదల చేసింది.
ఎలాంటి టెక్నాలజీ అవసరం లేకుండానే కేవలం చిన్న చిన్న అంశాలను ఉపయోగించి ఏఐతో సృష్టించే ఫేక్ ఫొటోలను ( AI-generated images) గుర్తించొచ్చని చెబుతోంది. ఫొటోలను నిశితంగా పరిశీలిస్తే వాస్తవానికి దూరంగా ఉండే చిత్రాలు, వింత వింత లైటింగ్, నీడలు తదితర వాటిని గుర్తుపట్టొచ్చని తెలిపింది. ఇందుకు సంబంధించి ఒక్కో అంశాన్ని వీడియోలో క్లుప్తంగా వివరించింది.
నకిలీ ఫొటోల్లో మనుషుల శరీర తీరు వాస్తవానికి విరుద్ధంగా ఉంటుందని వీడియో ద్వారా ప్రజలకు తెలియజేసింది. చేతివేళ్లు, కాలి వేళ్లు అసహజంగా కనిపిస్తాయని పేర్కొంది. ఫొటోల్లో కనిపించే నీడలు కూడా తేడాగా ఉంటాయని తెలిపింది. వాటిని క్షుణ్ణంగా పరిశీలిస్తే వాస్తవమేదో, నకిలీ ఏదో ఇట్టే కనిపెట్టొచ్చని సూచించింది. ప్రస్తుతం ఈ వీడియో నెట్టింట వైరల్ అవుతోంది.
Become an image detective! Spot AI-generated images like a pro!
Watch this video to find out how to look for the details while identifying any AI-generated images#PIBFactcheck @MIB_India
@DDNewslive pic.twitter.com/uGFEIILmcQ— PIB Fact Check (@PIBFactCheck) May 20, 2024
Also Read..
Schengen Visa | షెన్జెన్ వీసా ఫీజు 12 శాతం పెంపు.. భారతీయులపై తీవ్ర ప్రభావం
Sania Mirza | ఇంటి నేమ్ప్లేట్ మార్చేసిన సానియా మీర్జా.. ఎవరి పేరు యాడ్ చేసిందంటే..?
Anant Weds Radhika | ఇటలీ టు స్విట్జర్లాండ్.. భారీ క్రూయిజ్లో అనంత్ వివాహం