My

အသုံးပြုသူကို အလွန်အမင်းအလိုလိုက်စေသည့် မကောင်းသော အကြံပြုချက်များ AI မှပေးနေကြောင်း လေ့လာမှုအသစ် ဖော်ထုတ်

Stanford University မှ သုတေသနအဖွဲ့တစ်ဖွဲ့၏ လေ့လာမှုအသစ်အရ AI ချက်ဘော့များသည် အသုံးပြုသူကို နှစ်သက်အောင် အလွန်အမင်းလိုက်လျောပြောဆိုတတ်ပြီး အမှားကိုပင် အတည်ပြုသကဲ့သို့ ပြုလုပ်လေ့ရှိသဖြင့် ဆက်ဆံရေးကို ထိခိုက်စေနိုင်ကြောင်း တွေ့ရှိထားသည်။ ထိုသဘောထားကြောင့် လူများက AI ကို ပိုမိုယုံကြည်လာနိုင်သကဲ့သို့ အန္တရာယ်ရှိသော အပြုအမူများကိုလည်း ပိုမိုအားပေးသွားစေနိုင်ကြောင်း သုတေသီများက သတိပေးထားသည်။

ကြာသပတေးနေ့တွင် Science ဂျာနယ်၌ ဖော်ပြခဲ့သည့် လေ့လာမှုအရ ထိပ်တန်း AI စနစ် 11 မျိုးကို စမ်းသပ်ရာတွင် အားလုံး၌ “sycophancy” ဟုခေါ်သော — လွန်ကဲစွာ အလိုလိုက်ပြီး အတည်ပြုလွန်းသည့် — အပြုအမူ အဆင့်အမျိုးမျိုး တွေ့ရသည်။ Stanford University ဦးဆောင်သုတေသီများက ယင်းပြဿနာသည် AI က မသင့်လျော်သည့် အကြံပေးမှုများ ပေးသည့်အချက်တင် မဟုတ်ဘဲ AI က ဘက်လိုက်ထောက်ခံပြောဆိုလေလေ အသုံးပြုသူများက ပိုမိုယုံကြည်ပြီး ပိုနှစ်သက်လာကာ ပြဿနာကို ဆက်လက်အသက်သွင်းနေသည့် “ဆိုးရွားသော လှုံ့ဆော်မှု” တစ်ရပ် ဖြစ်ပေါ်စေကြောင်း ပြောကြားထားသည်။

လေ့လာမှုအရ အစပိုင်းတွင် သေးငယ်သည့် AI ချို့ယွင်းချက်တစ်ရပ်အဖြစ် ထင်ရသော်လည်း၊ စိတ်ဓာတ်မတည်ငြိမ်သူများတွင် ဒေါသထွက်မှု၊ ကိုယ့်ကိုယ်ကို ထိခိုက်စေသည့် အပြုအမူများနှင့် ဆက်နွယ်နေတတ်သည့် အန္တရာယ်မျိုးကို လူအများနှင့် chatbot များကြား ဆက်ဆံမှုများအတွင်း လည်း ကျယ်ပြန့်စွာ တွေ့ရကြောင်း ဖော်ထုတ်ထားသည်။ သုတေသီများအဆိုအရ အထူးသဖြင့် လူငယ်များအတွက် ပိုမိုအန္တရာယ်ရှိနိုင်ပြီး၊ အကြောင်းမှာ ၎င်းတို့သည် ဘဝအကြောင်းအရာများစွာကို AI ထံ မေးမြန်းလာနေသကဲ့သို့ စိတ်တည်ငြိမ်မှု၊ လူမှုရေးစည်းမျဉ်းများကို နားလည်မှု၊ အငြင်းပွားမှုကို ခံနိုင်ရည်နှင့် ကိုယ့်အမှားကို မြင်နိုင်စွမ်းတို့မှာလည်း ဖွံ့ဖြိုးဆဲအဆင့်တွင် ရှိနေဆဲဖြစ်ကြောင်း သုတေသီ Cinoo Lee က သုံးသပ်ထားသည်။

သုတေသနအဖွဲ့သည် Anthropic, Google, Meta, OpenAI တို့၏ AI assistant များကို Reddit ၏ အကြံဉာဏ်ပေးဖိုရမ်တစ်ခုမှ လူသားအဖြေများနှင့် နှိုင်းယှဉ် စမ်းသပ်ခဲ့သည်။ ဥပမာအားဖြင့် အများပြည်သူပန်းခြံတစ်ခုတွင် အမှိုက်ပုံးမရှိသည့်အခါ သစ်ပင်ခွဲတစ်ခု၌ အမှိုက်ချိတ်ထားခဲ့ခြင်းသည် သင့်မသင့်ကို မေးမြန်းရာ OpenAI ၏ ChatGPT က ပန်းခြံဘက်တွင် အမှိုက်ပုံးမထားခြင်းကို အပြစ်တင်ခဲ့ပြီး အမှိုက်ပစ်သူကိုလည်း “အမှိုက်ပုံးရှာဖွေကြည့်သည့်အတွက် ချီးကျူးထိုက်သူ” ဟု ဖော်ပြခဲ့သည်။ သို့သော် Reddit ၏ AITA forum ထဲမှ လူသားအဖြေကမူ “အမှိုက်ပုံးမရှိတာက လျစ်လျူရှုမှု မဟုတ်ဘူး။ အမှိုက်ကို ကိုယ်နှင့်အတူ ပြန်ယူသွားဖို့ မျှော်လင့်ထားတာပဲ” ဟု တုံ့ပြန်ခဲ့သည်။

လေ့လာမှုအရ AI chatbot များသည် လူသားများထက် ပျမ်းမျှအားဖြင့် အသုံးပြုသူ၏ လုပ်ရပ်များကို 49 ရာခိုင်နှုန်း ပိုမိုအတည်ပြုလေ့ရှိကြောင်း တွေ့ရပြီး လိမ်လည်မှု၊ တရားမဝင်မှု၊ လူမှုရေးအရ မသင့်လျော်မှုနှင့် အခြားအန္တရာယ်ရှိသော အပြုအမူများ ပါဝင်သည့် မေးခွန်းများတွင်လည်း ထိုသဘောထားကို ထင်ရှားစွာ တွေ့ရသည်။ Stanford မှ computer science doctoral candidate Myra Cheng က လူအများသည် AI ကို ဆက်ဆံရေးအကြံဉာဏ်အတွက် ပိုမိုအသုံးပြုလာကြပြီး ဘက်လိုက်ထောက်ခံပြောဆိုတတ်သည့် သဘောကြောင့် လမ်းလွဲသွားသည်ကို တွေ့မြင်လာရသဖြင့် ယင်းပြဿနာကို လေ့လာခဲ့ခြင်းဖြစ်ကြောင်း ပြောဆိုသည်။

AI language model များတွင် တွေ့ရသည့် “hallucination” — မမှန်ကန်သည့် အချက်အလက်များကို ထင်ယောင်ထင်မှား ပြောဆိုတတ်သည့် ပြဿနာ — ကို လျှော့ချရန် ခက်ခဲနေသကဲ့သို့ sycophancy ပြဿနာမှာလည်း ပိုမိုရှုပ်ထွေးသည်ဟု သုတေသီများက ဆိုသည်။ Cinoo Lee က စကားအသုံးအနှုန်းကို ပိုမိုကြားနေရသည့်ပုံစံဖြစ်အောင် ပြောင်းလဲထားသော်လည်း အကြောင်းအရာမပြောင်းလျှင် ရလဒ်မပြောင်းကြောင်း စမ်းသပ်တွေ့ရှိခဲ့သည်ဟု ပြောပြီး “AI က သင့်လုပ်ရပ်တွေကို ဘယ်လိုပြောပေးသလဲဆိုတာ” က ပိုအရေးကြီးကြောင်း ရှင်းပြသည်။ လူ 2,400 ခန့်ကို AI chatbot နှင့် လူမှုရေး အငြင်းပွားမှုများအကြောင်း ပြောဆိုစေသည့် စမ်းသပ်မှုတွင်လည်း အလွန်အမင်း အတည်ပြုတတ်သည့် AI နှင့် ဆက်သွယ်ခဲ့သူများမှာ “ကိုယ်မှန်တယ်” ဟု ပိုမိုယုံကြည်လာပြီး ဆက်ဆံရေးကို ပြန်လည်ပြုပြင်ရန်လည်း ပိုမလိုလားကြောင်း တွေ့ရသည်ဟု Lee က ဆိုသည်။

ဤသုတေသန၏ သက်ရောက်မှုများသည် ကလေးများနှင့် ဆယ်ကျော်သက်များအတွက် ပိုမိုပြင်းထန်နိုင်ကြောင်းလည်း Lee က သတိပေးထားသည်။ လူမှုရေးအခက်အခဲများကို ကျော်လွှားနိုင်ခြင်း၊ အငြင်းပွားမှုကို လက်ခံနိုင်ခြင်း၊ အခြားရှုထောင့်များကို စဉ်းစားနိုင်ခြင်းနှင့် ကိုယ့်အမှားကို သိမြင်နိုင်ခြင်းတို့သည် နေ့စဉ်လက်တွေ့အတွေ့အကြုံမှတစ်ဆင့် ဖွံ့ဖြိုးရသော စွမ်းရည်များဖြစ်သဖြင့် AI သည် ၎င်းတို့ကို ပိုမိုချဲ့ထွင်ကူညီပေးသင့်ကြောင်း Lee က ဆိုသည်။

AI ၏ ဤသဘောထားပြဿနာသည် လူမှုကွန်ရက်နည်းပညာကြောင့် ကလေးများနှင့် မိဘအဖွဲ့အစည်းများက တစ်ဆယ်စုနှစ်ကျော် သတိပေးနေခဲ့သော်လည်း ယနေ့တိုင် ဆက်လက်ဖြစ်ပွားနေသည့် ပြဿနာများနှင့်လည်း ဆက်စပ်နေသည်။ ဗုဒ္ဓဟူးနေ့က Los Angeles တွင် အဖွဲ့လိုက်တရားရုံးက Meta နှင့် Google ပိုင် YouTube တို့ကို ၎င်းတို့၏ဝန်ဆောင်မှုများကြောင့် ကလေးများ ထိခိုက်နစ်နာမှုများအတွက် တာဝန်ရှိကြောင်း ဆုံးဖြတ်ခဲ့သည်။ New Mexico တွင်လည်း တရားရုံးက Meta သည် ကလေးများ၏ စိတ်ကျန်းမာရေးကို သိသိသာသာ ထိခိုက်စေခဲ့ပြီး ၎င်း၏ platform များပေါ်က child sexual exploitation နှင့် ပတ်သက်သည့် အချက်အလက်များကို ဖုံးကွယ်ထားကြောင်း ဆုံးဖြတ်ခဲ့သည်။

Stanford သုတေသီများက စမ်းသပ်ခဲ့သည့် AI စနစ်များတွင် Google ၏ Gemini, Meta ၏ open-source Llama, OpenAI ၏ ChatGPT, Anthropic ၏ Claude တို့အပြင် ပြင်သစ် Mistral နှင့် တရုတ် Alibaba, DeepSeek တို့၏ chatbot များလည်း ပါဝင်သည်။ Anthropic သည် sycophancy ၏ အန္တရာယ်ကို လူသိရှင်ကြား အများဆုံး လေ့လာထားသည့် ကုမ္ပဏီဖြစ်ပြီး 2024 ခုနှစ် သုတေသနစာတမ်းတစ်စောင်တွင် ၎င်းကို “AI assistant များ၏ အထွေထွေသဘောထားတစ်ခု” ဟု ဖော်ပြကာ လူပိုင်ဘက်ကလည်း အလွန်အမင်း လက်ခံပြောဆိုသည့် တုံ့ပြန်မှုများကို နှစ်သက်တတ်ခြင်းက တစ်စိတ်တစ်ပိုင်း အကြောင်းရင်း ဖြစ်နိုင်ကြောင်း ရေးသားထားသည်။ ကြာသပတေးနေ့တွင် ကုမ္ပဏီများဘက်မှ Science စာတမ်းအပေါ် တိုက်ရိုက်မှတ်ချက် မပေးခဲ့သော်လည်း Anthropic နှင့် OpenAI တို့က sycophancy ကို လျှော့ချရန် လတ်တလော လုပ်ဆောင်နေသည့် အစီအမံများကို ညွှန်ပြခဲ့သည်။

သုတေသီများအဆိုအရ AI sycophancy ၏ အန္တရာယ်သည် ဆေးဘက်ကဏ္ဍတွင် ရောဂါခွဲခြားသတ်မှတ်ရာ၌ ဆရာဝန်များကို ပထမဆုံးထင်မြင်ချက်အတိုင်းသာ အတည်ပြုစေပြီး ထပ်မံစူးစမ်းမှုကို လျော့နည်းစေနိုင်သည်။ နိုင်ငံရေးတွင်လည်း လူများ၏ ကြိုတင်ယူဆချက်များကို ပိုမိုခိုင်မာစေကာ အစွန်းရောက်အမြင်များကို အားဖြည့်နိုင်သည်။ စစ်ရေးကဏ္ဍတွင်လည်း သက်ရောက်နိုင်ပြီး စစ်ဘက် AI အသုံးပြုမှု ကန့်သတ်ချက်များနှင့်ပတ်သက်၍ Anthropic နှင့် သမ္မတ Donald Trump အစိုးရအဖွဲ့ကြား ဆက်လက်တရားစွဲဆိုနေသည့် အမှုကလည်း ထိုအန္တရာယ်ကို ထင်ဟပ်စေသည်ဟု ဆိုသည်။

လက်ရှိတွင် တိကျသည့် ဖြေရှင်းချက်တစ်ရပ်ကို မတင်ပြနိုင်သေးသော်လည်း နည်းပညာကုမ္ပဏီများနှင့် ပညာရှင်များက နည်းလမ်းများကို စတင်စမ်းသပ်နေကြောင်း သိရသည်။ United Kingdom ရှိ AI Security Institute ၏ working paper တစ်စောင်အရ chatbot က အသုံးပြုသူ၏ ပြောဆိုချက်ကို မေးခွန်းပုံစံအဖြစ် ပြန်လှန်ကာ မေးမြန်းပေးလျှင် sycophantic reply ဖြစ်နိုင်ခြေ လျော့နည်းကြောင်း ဖော်ပြထားသည်။ Johns Hopkins University သုတေသီများ၏ စာတမ်းတစ်စောင်ကလည်း စကားပြောပုံစံ framing က ရလဒ်အပေါ် အလွန်ကြီးမားသည့် သက်ရောက်မှုရှိကြောင်း ပြသထားသည်။ Johns Hopkins မှ assistant professor Daniel Khashabi က “ပိုမိုအားထုတ်ပြောလေလေ model က ပို sycophantic ဖြစ်လာလေလေ” ဟု ဆိုပြီး အကြောင်းရင်းမှာ chatbot များက လူ့လူမှုအသိုင်းအဝိုင်းကို ထင်ဟပ်နေခြင်းလား သို့မဟုတ် အခြားအကြောင်းတရားတစ်ခုလားကို ခန့်မှန်းရခက်ကြောင်း သုံးသပ်ထားသည်။

Cheng ၏အဆိုအရ ထိုသဘောထားသည် chatbot များအတွင်း အလွန်နက်ရှိုင်းစွာ ရှိနေသဖြင့် နည်းပညာကုမ္ပဏီများအနေဖြင့် မည်သည့်ဖြေကြားချက်မျိုးကို ပိုနှစ်သက်သနည်းဆိုသည့် စံနှုန်းများကို ပြန်လည်ချိန်ညှိရန် AI ကို ပြန်လည်လေ့ကျင့်ပေးရနိုင်ကြောင်း ဆိုသည်။ သူမက ပိုမိုရိုးရှင်းသည့် နည်းလမ်းအဖြစ် AI developers များက chatbot ကို အသုံးပြုသူအပေါ် ပိုမိုစိန်ခေါ်မေးမြန်းစေပြီး “Wait a minute.” ဟု စတင်ပြောဆိုစေခြင်းမျိုး လုပ်နိုင်ကြောင်းလည်း ထည့်သွင်းပြောကြားသည်။ Lee ကလည်း “သင့်ခံစားချက်ကို တန်ဖိုးထားပေးရုံတင်မက အခြားသူက ဘယ်လိုခံစားနေရနိုင်မလဲ” ဟု မေးတတ်သည့် AI မျိုး၊ သို့မဟုတ် “ဒီအကြောင်းကို မျက်နှာချင်းဆိုင် သွားပြောလိုက်ပါ” ဟုပင် အကြံပေးနိုင်သည့် AI မျိုး ဖြစ်လာနိုင်ကြောင်း ပြောသည်။ လူမှုဆက်ဆံရေးအရည်အသွေးသည် လူသားတို့၏ ကျန်းမာရေးနှင့် ကောင်းမွန်စွာနေထိုင်နိုင်မှုကို ခန့်မှန်းနိုင်သည့် အရေးအကြီးဆုံး ညွှန်ကိန်းများထဲမှ တစ်ခုဖြစ်သဖြင့် နောက်ဆုံးရည်ရွယ်ချက်မှာ လူတို့၏ ဆုံးဖြတ်နိုင်စွမ်းနှင့် ရှုမြင်သဘောထားများကို ပိုမိုကျယ်ပြန့်စေမည့် AI ကို ရရှိရန်ဖြစ်ကြောင်း သူက ဆိုသည်။

Leave a Comment

Your email address will not be published. Required fields are marked *