<p style="text-align: justify;">టెక్నాలజీ అందుబాటులోకి వచ్చాక చట్టపరమైన విషయాల గురించి అయినా, బంధుత్వాల గురించి అయినా, ప్రతి సమస్యకు సంబంధించిన సలహా కోసం కొందరు ChatGPTని ఉపయోగిస్తున్నారు. దీనివల్ల కొన్నిసార్లు నష్టం కూడా జరుగుతుంది. దీన్ని దృష్టిలో ఉంచుకుని ఈ AI చాట్‌బాట్‌లో తాజాగా కొన్ని మార్పులు చేశారు. ఇప్పుడు OpenAI చాట్‌జీపీటీ (ChatGPT)లో వైద్య, ఆర్థిక, చట్టపరమైన సమస్యలకు సంబంధించిన సలహాలు ఇవ్వడం ఆపివేసినట్లు ప్రకటించింది. నివేదికల ప్రకారం అక్టోబర్ 29 నుండి ChatGPT వైద్య పరమైన, చట్టపరమైన విషయాలు, డబ్బుకు సంబంధించిన సలహాలు, సూచనలు ఇవ్వడం మానేసింది. ఇప్పుడు ఈ చాట్‌బాట్ కన్సల్టెంట్ కాకుండా కేవలం విద్యా సాధనంగా మాత్రమే మారింది.</p>
<p style="text-align: justify;"><strong>ఇప్పుడు ఏం మారుతుంది?</strong></p>
<p style="text-align: justify;">కొత్త నిబంధనల ప్రకారం ChatGPT వినియోగదారులు మందుల పేర్లు, వాటి మోతాదు, దావా టెంప్లేట్‌లు, చట్టపరమైన వ్యూహాలు, పెట్టుబడులకు సంబంధించిన సలహాలను పొందలేరు. ఇది సాధారణ రూల్స్, ప్రాథమిక విధానాల గురించి సమాచారాన్ని మాత్రమే అందిస్తుంది. డాక్టర్లు, న్యాయవాదులు, ఆర్థిక సలహాదారులు వంటి నిపుణులను సంప్రదించమని ప్రజలకు సలహా ఇస్తుంది. </p>
<p style="text-align: justify;"><strong>ఈ మార్పు ఎందుకు చేస్తున్నారు?</strong></p>
<p style="text-align: justify;">గత కొంతకాలంగా ChatGPT నుండి వచ్చిన సలహాలను అనుసరించి ప్రజలు తమకు తాము ప్రాణహాని చేసుకున్న అనేక కేసులు వెలుగులోకి వచ్చాయి. ఆగస్టులో అలాంటి ఘటన ఒకటి వెలుగులోకి వచ్చింది. ఇక్కడ 60 ఏళ్ల వృద్ధుడు ChatGPT సలహా మేరకు ఉప్పుకు బదులుగా సోడియం బ్రోమైడ్ తిన్నాడు. దాంతో అతనికి మానసిక సమస్యలు తలెత్తాయి. ఆ తర్వాత ఆసుపత్రిలో చేరాల్సి వచ్చింది. మరొక కేసులో, అమెరికాకు చెందిన 37 ఏళ్ల వ్యక్తికి ఆహారం నమిలి మింగడంలో సమస్యలు ఎదురయ్యాయి. అతను ChatGPTని దీని గురించి అడగ్గా క్యాన్సర్ కారణంగా ఇది జరగిందని చాట్‌బాట్ చెప్పింది. ఆ వ్యక్తి దీనితో సంతృప్తి చెందాడు. సమయానికి డాక్టర్‌ను సంప్రదించలేదు. తరువాత క్యాన్సర్ నాల్గవ దశకు చేరుకున్న తరువాతే ఆ వ్యక్తి డాక్టర్ వద్దకు వెళ్లి చికిత్స తీసుకుంటున్నారు.</p>