[ad_1]
శాన్ ఫ్రాన్సిస్కొ:
Google మానవుని వంటి స్పృహతో సాంకేతికతను నిర్మించిందా లేదా అనేదానిపై అంతర్గత పోరాటం బహిరంగంగా చిందించబడింది, కృత్రిమ మేధస్సులో అంతర్లీనంగా ఉన్న ఆశయాలు మరియు నష్టాలను బహిర్గతం చేయడం చాలా వాస్తవమైనది.
సిలికాన్ వ్యాలీ దిగ్గజం తన ఇంజనీర్లలో ఒకరిని గత వారం సస్పెండ్ చేసింది, వారు సంస్థ యొక్క AI సిస్టమ్ లామ్డిఎ “సెంటింట్”గా అనిపించిందని వాదించారు, ఈ వాదనను Google అధికారికంగా అంగీకరించలేదు.
చాలా మంది నిపుణులు AFPకి స్పృహ దావాపై కూడా చాలా సందేహం కలిగి ఉన్నారని చెప్పారు, అయితే మానవ స్వభావం మరియు ఆశయం సమస్యను సులభంగా గందరగోళానికి గురిచేస్తాయని చెప్పారు.
“సమస్య ఏమిటంటే.. మనం మాట్లాడే భాషలకు చెందిన పదాల తీగలను ఎదుర్కొన్నప్పుడు, వాటిని అర్థం చేసుకుంటాము,” అని వాషింగ్టన్ విశ్వవిద్యాలయంలో భాషాశాస్త్ర ప్రొఫెసర్ ఎమిలీ M. బెండర్ అన్నారు.
“మనం లేని మనసుని ఊహించుకునే పని చేస్తున్నాం” అన్నారాయన.
LaMDA అనేది వ్రాతపూర్వక చాట్లలో వ్యక్తులు ఎలా కమ్యూనికేట్ చేస్తారో అనుకరించగలిగేలా 1.5 ట్రిలియన్లకు పైగా పదాలపై అధునాతన నమూనాలు మరియు శిక్షణను ఉపయోగించే భారీ శక్తివంతమైన వ్యవస్థ.
గూగుల్ యొక్క వివరణ ప్రకారం, పదాలు ఒకదానితో ఒకటి ఎలా సంబంధం కలిగి ఉన్నాయో గమనించి, ఆపై ఒక వాక్యం లేదా పేరాలో తదుపరి ఏ పదాలు వస్తాయో అంచనా వేసే నమూనాపై సిస్టమ్ నిర్మించబడింది.
చాపెల్ హిల్లోని యూనివర్శిటీ ఆఫ్ నార్త్ కరోలినాలో కంప్యూటర్ సైన్స్లో అసిస్టెంట్ ప్రొఫెసర్ అయిన శశాంక్ శ్రీవాస్తవ మాట్లాడుతూ, “ఇది ఇప్పటికీ కొంత స్థాయిలో కేవలం నమూనా సరిపోలికలో ఉంది.
“ఖచ్చితంగా మీరు నిజంగా అర్థవంతమైన సంభాషణలో కనిపించే కొన్ని తంతువులను కనుగొనవచ్చు, అవి రూపొందించగల కొన్ని సృజనాత్మక వచనం. కానీ ఇది చాలా సందర్భాలలో త్వరగా అభివృద్ధి చెందుతుంది,” అన్నారాయన.
అయినప్పటికీ, స్పృహను కేటాయించడం గమ్మత్తైనది.
ఇది తరచుగా ట్యూరింగ్ పరీక్ష వంటి బెంచ్మార్క్లను కలిగి ఉంటుంది, మానవుడు ఒకరితో వ్రాతపూర్వకంగా చాట్ చేస్తే మెషీన్ ఉత్తీర్ణత సాధించినట్లు పరిగణించబడుతుంది, కానీ చెప్పలేము.
“ఇది వాస్తవానికి 2022లో మా పాతకాలపు ఏ AIకి అయినా ఉత్తీర్ణత సాధించడానికి చాలా సులభమైన పరీక్ష,” అని టొరంటో విశ్వవిద్యాలయం తత్వశాస్త్ర ప్రొఫెసర్ మార్క్ కింగ్వెల్ అన్నారు.
“కఠినమైన పరీక్ష అనేది ఒక సందర్భోచిత పరీక్ష, ప్రస్తుత సిస్టమ్లు, ఇంగితజ్ఞానం లేదా నేపథ్య ఆలోచనలు — అల్గారిథమ్లు కష్టతరమైన విషయాల ద్వారా ట్రిప్ అవుతున్నట్లు కనిపిస్తున్నాయి,” అన్నారాయన.
‘సులభమైన సమాధానాలు లేవు’
AI అనేది టెక్ ప్రపంచంలో మరియు వెలుపల ఒక సున్నితమైన అంశంగా మిగిలిపోయింది, ఇది ఆశ్చర్యాన్ని కలిగిస్తుంది మరియు కొంత అసౌకర్యాన్ని కూడా కలిగిస్తుంది.
Google, ఒక ప్రకటనలో, LaMDA స్వీయ-అవగాహన కలిగి ఉందో లేదో తగ్గించడంలో వేగంగా మరియు దృఢంగా ఉంది.
“ఈ వ్యవస్థలు మిలియన్ల వాక్యాలలో కనిపించే మార్పిడి రకాలను అనుకరిస్తాయి మరియు ఏదైనా అద్భుతమైన అంశంపై రిఫ్ చేయగలవు” అని కంపెనీ తెలిపింది.
“వందలాది మంది పరిశోధకులు మరియు ఇంజనీర్లు LaMDAతో సంభాషించారు మరియు మరెవరూ చేయటం గురించి మాకు తెలియదు… విస్తృతమైన వాదనలు లేదా LaMDAని ఆంత్రోపోమోర్ఫైజ్ చేయడం” అని అది జోడించింది.
కనీసం కొంతమంది నిపుణులు Google ప్రతిస్పందనను ఒక ముఖ్యమైన అంశంపై సంభాషణను మూసివేసే ప్రయత్నంగా భావించారు.
“సమస్యపై బహిరంగ చర్చ చాలా ముఖ్యమైనదని నేను భావిస్తున్నాను, ఎందుకంటే సమస్య ఎంత బాధాకరంగా ఉందో ప్రజల అవగాహన కీలకం” అని విద్యావేత్త సుసాన్ ష్నైడర్ అన్నారు.
“యంత్రాలలో స్పృహ ప్రశ్నలకు సులభమైన సమాధానాలు లేవు” అని ఫ్లోరిడా అట్లాంటిక్ విశ్వవిద్యాలయంలో సెంటర్ ఫర్ ది ఫ్యూచర్ ఆఫ్ ది మైండ్ వ్యవస్థాపక డైరెక్టర్ జోడించారు.
లింగ్విస్టిక్స్ ప్రొఫెసర్ బెండర్ చెప్పినట్లుగా, ప్రజలు “AI హైప్లో విపరీతమైన మొత్తంలో ఈదుతున్న” సమయంలో ఈ అంశంపై పని చేసే వారి ద్వారా సంశయవాదం లేకపోవడం కూడా సాధ్యమే.
“మరియు దీని కోసం చాలా ఎక్కువ డబ్బు విసిరివేయబడుతోంది. కాబట్టి దానిపై పని చేసే వ్యక్తులు తాము ముఖ్యమైన మరియు వాస్తవమైన పనిని చేస్తున్నామని చాలా బలమైన సంకేతాన్ని కలిగి ఉన్నారు” ఫలితంగా వారు “తగిన సంశయవాదాన్ని కొనసాగించాల్సిన అవసరం లేదు” అని ఆమె జోడించింది.
ఇటీవలి సంవత్సరాలలో AI కూడా చెడు నిర్ణయాలతో బాధపడుతోంది — బెండర్ ఒక భాషా నమూనా ఇంటర్నెట్లో శిక్షణ ఇవ్వడం నుండి జాత్యహంకార మరియు వలస వ్యతిరేక పక్షపాతాలను ఎంచుకోవచ్చని కనుగొన్న పరిశోధనను ఉదహరించారు.
టొరంటో విశ్వవిద్యాలయం ప్రొఫెసర్ కింగ్వెల్ మాట్లాడుతూ, AI సెంటిన్సీకి సంబంధించిన ప్రశ్న “బ్రేవ్ న్యూ వరల్డ్” మరియు పార్ట్ “1984” అని, సాంకేతికత మరియు మానవ స్వేచ్ఛ వంటి సమస్యలను స్పృశించే రెండు డిస్టోపియన్ రచనలు.
“చాలా మందికి, ఏ వైపు తిరగాలో వారికి నిజంగా తెలియదని నేను అనుకుంటున్నాను, అందుకే ఆందోళన,” అన్నారాయన.
(శీర్షిక తప్ప, ఈ కథనం NDTV సిబ్బందిచే సవరించబడలేదు మరియు సిండికేట్ ఫీడ్ నుండి ప్రచురించబడింది.)
[ad_2]
Source link