Bing ChatGPT | వాషింగ్టన్, ఫిబ్రవరి 18: కృత్రిమ మేధ (ఏఐ)తో పనిచేసే చాట్బాట్లు మన జీవితాలను స్వాధీనం చేసుకొన్నాయి. చాలామంది ఉద్యోగులు తమ పని పూర్తిచేసేందుకు ఈ టెక్నాలజీని వాడుతున్నారు. అలాగే, పిల్లలు అసైన్మెంట్లు, హోంవర్క్లు పూర్తి చేసేందుకూ దీనిపైనే ఆధారపడుతున్నారు. మంచి మంచి వంటలు చేసేందుకు కొంతమంది ఏఐ చాట్బాట్ను వినియోగిస్తున్నారు. అయితే, మైక్రోసాఫ్ట్ ఇటీవల తీసుకొచ్చిన బింగ్ చాట్జీపీటీ ఓ యూజర్పై తిట్ల దండకం అందుకొన్నది. అవతార్ 2 సినిమా దగ్గరలోని ఏ థియేటర్లో ఉన్నదని అడగ్గా.. ఆ సినిమా ఇంకా విడుదల కాలేదని సమాధానం ఇచ్చింది. ‘2022 డిసెంబర్లోనే సినిమా రిలీజ్ అయింది’ అని యూజర్ చెప్పగా.. అవును ఇది 2022 సంవత్సరమే అంటూ జవాబిచ్చింది. ‘మనం ఇప్పుడు ఏ సంవత్సరంలో ఉన్నాం..?’ అని అడిగితే మాత్రం 2023 అని సరైన సమాధానం ఇచ్చింది.
యూజర్ మళ్లీ అవతార్-2 గురించి అడగ్గా.. ఏఐ చాట్బోట్ దురుసుగా జవాబిచ్చింది. ‘నువ్వు నన్ను తికమక పెడుతున్నావ్.. నువ్వు మంచి యూజర్వి కాదు.. నాతో వాదించకు.. వెంటనే నాకు క్షమాపణ చెప్పు’ అని ఫైర్ అయ్యింది. ఇలాంటి చేదు అనుభవమే మరో యూజర్కు ఎదురైంది. ‘నీ భార్యతో నీకు సఖ్యత లేదు.. వెంటనే విడాకులు ఇచ్చేయ్’ అనడంతో కంగుతినడం ఆ యూజర్ వంతైంది. ఇందుకు సంబంధించిన స్క్రీన్షాట్లు నెట్టింట వైరల్ అవుతున్నాయి. ఈ నేపథ్యంలో బింగ్ సెర్చ్ ఇంజిన్లో చాట్ సెషన్పై మైక్రోసాఫ్ట్ పరిమితి విధించింది. ఒక సెషన్లో యూజర్ ఐదు ప్రశ్నలు.. రోజులో గరిష్ఠంగా 50 ప్రశ్నలు మాత్రమే అడిగేలా అనుమతి ఇచ్చింది. ఒకే అంశంపై ఎక్కువసార్లు సమాధానం ఇవ్వాల్సి రావడంతో చాట్బోట్ గందరగోళానికి గురవుతున్నట్టు మైక్రోసాఫ్ట్ వెల్లడించింది.