ရက်စွဲ – ၁၁.၀၆.၂၀၂၄
AI နည်းပညာတွေသည် တရှိန်ထိုးအောင်မြင်လာမှုနဲ့အတူ အရမ်းကို သြချလောက်စရာ စွမ်းဆောင်ရည်တွေ ပါဝင်လာပါတယ်။ လူသားတွေသာလျှင် အသုံးပြုတဲ့ ဘာသာစကားမြောက်မြားစွာကို ကောင်းမွန်စွာ နားလည်ရုံသာမက သင့်လျော်တဲ့ အကြံဉာဏ်၊ သုံးသပ်ချက်တွေကို အကိုးအကားနှင့်တကွ ပြန်ထုတ်ပေးလာပါတယ်။ အသံတွေကို ကြားနိုင်၊ နားလည်နိုင်တဲ့အပြင် ဗွီဒီယိုရုပ်သံ ဖန်တီး၊ တည်းဖြတ်မှုများ၊ အချက်အလက်စာများသာမက ရုပ်ပုံ၊ မြေပုံများကို ဖတ်ရှုရှာဖွေကာ အနှစ်ချုပ်အဖြစ် ပြန်လည်ဖော်ပြပေးခြင်း များကိုလည်း လုပ်ဆောင်ပေးနိုင်ပါတယ်။ ဆိုရရင် လူတစ်ယောက်ရဲ့ နေ့စဥ်လုပ်ငန်းတွေမှာ အကျိုးများစွာ ရှိစေတဲ့အထိ အသုံးဝင်လာပါတယ်။
ဘာသာစကားတွေကို နားလည်တဲ့ နည်းပညာဖြစ်တဲ့ LLMs ရဲ့ ကျေးဇူးကြောင့် နိုင်ငံ၊လူမျိုး၊ဘာသာစကား မည်သည့်အတားအဆီးမျှမရှိဘဲ အချက်အလက်တွေ ရှာဖွေဖို့၊ လေ့လာဖို့၊ သင်ယူဖို့ ပိုမိုလွယ်ကူလာပါတယ်။ လူသားအသုံးပြုသူအနေနဲ့ မိမိတို့ရဲ့ မိခင်ဘာသာစကားနဲ့ AI နည်းပညာကို အသုံးပြုချင်ကြသူ ပိုများပါလိမ့်မယ်။ ဒါ့ကြောင့် ကျွန်မသည်လည်း ကျွန်မ၏ မိခင်ဘာသာစကား မြန်မာဘာသာဖြင့် ဗမာစကားပုံတွေအကြောင်းကို လေ့လာဖြစ်ခဲ့ပါတယ်။ ဒီနေရာမှာတွေ့လာရတာက အချို့စကားပုံတွေက မှားယွင်းနေတာမျိုး၊ တစ်ခါတစ်ရံ စာလုံးပေါင်းသတ်ပုံမှားယွင်းနေတာမျိုး ကိုတွေ့လာရပါတယ်။ ကိုယ်တိုင်သိပြီးသား စကားပုံတွေဖြစ်တဲ့ အတွက် ပြန်ပေးလာတဲ့ သုံးသပ်ချက်တွေကို သိပ်ပြီး သဘောမတွေ့လှပါဘူး။ အဖြေအတွက် ဇဝေဇဝါ၊ သံသယတွေ၊ ထင်ယောင်ထင်မှားတွေ ဖြစ်ရပါတယ်။
ဒါ့ကြောင့်ပဲ ကျွန်မက LLMs တွေမှာ ဖြစ်လေ့ရှိတဲ့ Hallucinations (ထင်ယောင်ထင်မှားဖြစ်စေမှု) အကြောင်းကို တင်ပြပေးသွားမှာဖြစ်ပါတယ်။ သိထားမယ်ဆိုရင် LLMs နည်းပညာကပေးတဲ့ အကျိုးကျေးဇူးကိုပိုရနိုင်လို့ပဲ ဖြစ်ပါတယ်။
LLMs မှာ Hallucinations ဆိုတာ လက်တွေ့မှာမရှိတာကို အရှိလုပ်ပြီး ခိုင်ခိုင်မာမာ အဖြေပြန်ပေးတာမျိုး၊ မှားယွင်းတဲ့အဖြေကို သုံးသပ်တင်ပြတာမျိုး ဖြစ်ပါတယ်။ တစ်ခါတစ်ရံ အကိုးအကားဝဘ်ဆိုဒ်လိပ်စာအမှားတွေ ကိုတောင် ပြန်ပေးလေ့ရှိပါတယ်။ ဒီလိုမျိုး မတိကျတဲ့၊ မမှန်ကန်တဲ့ရလဒ်တွေက နားလည်မှုလွဲမှားစေပါတယ်။ သတင်းအမှားတစ်ခုကို ဖြန့်လိုက်သလိုဖြစ်လို့ လက်တွေ့လောကမှာ အဆိပ်အတောက်တစ်ခုလို့ ဆိုချင်ပါတယ်။ စိတ်ကူးယဥ်ဝတ္ထုတစ်ပုဒ်၊ ကဗျာတစ်ပုဒ်ကို ဖန်တီးရှာဖွေနေတာသာဆိုလျှင် ပြဿနာအကြီးကြီး မဟုတ်ပေမယ့် ဆေးပညာဆိုင်ရာ၊ ဥပဒေဆိုင်ရာ စတာတွေမှာ ဆုံးဖြတ်ချက်ချဖို့ အထောက်အထားရှာနေတာဆိုလျှင်တော့ အန္တရာယ်ရှိသွားပါပြီ။ LLMs တွေက မှန်သည်၊ မှားသည် စဥ်းစားဆုံးဖြတ်ပြီးမှ အဖြေကို ပြန်ပေးတာမဟုတ်ဘဲ သူ့မှာရှိနေတဲ့ အချက်အလက်တွေကို အသုံးပြုပြီး အဖြစ်နိုင်ဆုံး၊ အသင့်တော်ဆုံးကို ယုံကြည်ချက်ရှိရှိ ခိုင်ခိုင်မာမာ ပြန်ပေးတယ်ဆိုတာ သတိပြုရပါမယ်။
LLMs အတွက်တော့ ဒီ hallucinations တွေက အရေးကြီးတဲ့ တားဆီးမှုတစ်ခုဖြစ်ပြီး စိန်ခေါ်မှုတစ်ခုဆိုရင်လည်း မမှားပါဘူး။
LLMs မှာ Hallucinations နှစ်မျိုး ရှိပါတယ်။ အချက်အလက်ဆိုင်ရာ မမှန်ကန်မှုကြောင့်သော်လည်းကောင်း၊ စိတ်ကူးယဥ်လုပ်ကြံဖန်တီးထားတဲ့ အကြောင်းအရာတွေပေါ်မူတည်ခြင်း ကြောင့်သော်လည်းကောင်း ဖြစ်လာတဲ့ Factuality Hallucinations နဲ့ ကြောင်းကျိုးဆီလျော်မှုမရှိ၊ ယုတ္တိမရှိတဲ့ Faithfulness Hallucinations တို့ ဖြစ်ပါတယ်။
Hallucinations ဖြစ်ရတဲ့ အကြောင်းရင်းများစွာ ရှိပါတယ်။
LLMs ကို Trained ထားတဲ့ Dataset မှာ မေးခွန်းကို ဖြေနိုင်မယ့် လုံလောက်တဲ့ Knowledge ရှိမနေတာကြောင့် ဖြစ်နိုင်ပါတယ်။ Knowledge ဖြစ်လာစေမယ့် Resource လုံလောက်မှု အားနည်းတာကြောင့်လို့လည်း ယူဆနိုင်ပါတယ်။
LLMs က, မှားယွင်းတဲ့ အချက်အလက်တွေကို ရရှိထားတာလည်း ဖြစ်နိုင်ပါတယ်။ စိတ်ကူးယဥ်ပုံပြင်၊ ဇာတ်လမ်းလို အကြောင်းအရာတွေက အချက်အလက်တွေဟာ တကယ့်အပြင်လက်တွေ့မှာ မရှိတာကြောင့် ဖြစ်ပါတယ်။
နောက်တစ်ချက်က, ခေတ်ဟောင်းအချက်အလက်တွေကြောင့် ဖြစ်ပါတယ်။ ဆိုလိုချင်တာက ပြဌာန်းချက်တွေ၊ ဥပဒေ၊ စည်းမျဥ်းတွေသည် အခါအားလျော်စွာ ပြောင်းလဲကျင့်သုံးတာမျိုး ရှိတတ် ပါတယ်။
ဒါ့အပြင် သက်ဆိုင်ရာ နယ်ပယ်အသီးသီးရဲ့ သတ်မှတ်ချက်၊ အခေါ်အဝေါ် တွေပြည့်စုံစွာ ရှိမနေတာကြောင့်လည်း ဖြစ်တတ်ပါတယ်။ သက်ဆိုင်ရာဘာသာရပ်ကို ကျွမ်းကျင်မှုမရှိဘဲ တင်ပြထားမှု တွေ၊ သက်ဆိုင်ရာဘာသာရပ်ကို ကျွမ်းကျင်သော်လည်း ဘာသာစကား ဝေါဟာရ အသုံးပြုမှု မှားယွင်းခြင်း တွေကြောင့်လည်း ဖြစ်နိုင်ပါတယ်။
ရှုပ်ထွေးတဲ့ အကြောင်းအရာတွေကြောင့် LLMs ရဲ့ နားလည်မှုကို ကျဆင်းစေပြီး ဒွိဟဖြစ်စရာ၊ မှားယွင်းတဲ့ အဖြေတွေကိုသာ ရတတ်ပါတယ်။ မိမိမျှော်မှန်းထားသလို မှန်ကန်တိကျတဲ့ ကျေနပ်ဖွယ် အဖြေရရှိဖို့ရန်မှာ အမေးမှာလည်း ရှင်းလင်းတိကျဖို့ လိုအပ်ပါတယ်။
Hallucinations ကို ဖြစ်စေတဲ့ နောက်အကြောင်းအရာတစ်ခုကတော့ Biases ဖြစ်ပါတယ်။ အားလုံးပဲ သိထားပြီးသား ဖြစ်တဲ့အတိုင်း Gender Biases လိုမျိုးပါ။ လူတိုင်းရဲ့ အတွေးထဲမှာ သူနာပြုဆိုရင် အမျိုးသမီးကို အများဆုံး ပြေးမြင်ကြလေ့ရှိပြီး တကယ့်လက်တွေ့မှာက အမျိုးသားသူနာပြုတွေလည်း ရှိနေတာပဲ ဖြစ်ပါတယ်။
LLMs မှာ ဒီလို အချက်အလက်နဲ့ပတ်သတ်တဲ့ Hallucinations ဖြစ်ရခြင်းတွေကို လျှော့ချလို့ရပေမယ့် တစ်နေရာရာမှာတော့ ကျန်ရှိသွားကောင်းကျန်နေနိုင်ပါသေးတယ်။ ဒါပေမယ့်လည်း တတ်နိုင်သလောက် လျှော့ချရမှာ ဖြစ်လို့ ဖြေရှင်းနိုင်မယ့် နည်းလမ်း အချို့ကို ဖော်ပြပေးလိုက်ပါတယ်။ ဒီနည်းလမ်းတွေကို အသုံးပြုသူတိုင်းက နည်းပညာကျွမ်းကျင်မှု မလိုအပ်ဘဲ လုပ်ဆောင်နိုင်ပါတယ်။
သတင်း၊ အချက်အလက်ရင်းမြစ် အားနည်းတာမျိုး အတွက် သုတေသနပြုလုပ်ကာ စုစည်း ထားနိုင်ပါတယ်။ ယေဘူယျ ဝေါဟာရ၊ စာလုံးပေါင်းသတ်ပုံ၊ ဝါကျထားသိုပုံ၊ တည်ဆောက်ပုံက,အစ စနစ်တကျ ရှိသင့်ပါတယ်။ သင်ရိုးညွှန်းတမ်းတွေ၊ ပြဌာန်းစာအုပ်၊ ကျမ်းဂန်တွေသည် ယေဘူယျအားဖြင့် မှန်ကန်တိကျပြီး အရည်အသွေးမြင့်တဲ့ အချက်အလက်တွေအဖြစ် မှတ်ယူနိုင်ပါတယ်။
မှားယွင်းတဲ့အချက်အလက်တွေ မရှိစေဖို့ လူအင်အားသုံးပြီး စီစစ် စစ်ဆေးတာမျိုးက, အချက်အလက်တွေကို ပိုပြီး တိကျ မှန်ကန် စေပါလိမ့်မယ်။ အသုံးပြုသူရဲ့ တုံ့ပြန်ချက် (Feedback)၊ သုံးသပ်ချက် (review) တွေကလည်း LLMs တွေအတွက် အထောက်အကူ ဖြစ်ပါတယ်။ ဆိုလိုချင်တာက မိမိက အသုံးပြုသူ ဖြစ်နေပြီး အချက်အလက် မှန်မှန်ကန်ကန်ကို သိထားတယ်ဆိုရင် Feedback အနေနဲ့ အမှန်ပြင်ပေးတဲ့ သဘောကို ဆိုလိုပါတယ်။
သုတေသနစာတမ်းအသစ်အသစ်တွေကို အမြဲမပြတ် စစ်ဆေး မှတ်တမ်းတင်ထားဖို့ လိုအပ်ပါတယ်။ သက်ဆိုင်ရာ ကျွမ်းကျင်ပညာရှင်များရဲ့ အကြံဥာဏ်ပေးချက်များဖြင့် စီစစ်ဖို့လည်း လိုပါတယ်။
ရလိုတဲ့အဖြေအတွက် မေးခွန်းမေးတဲ့အခါ တတ်နိုင်သမျှ ရှင်းရှင်းလင်းလင်း ရှိဖို့လိုအပ်ပါတယ်။ Prompt Engineering လို့ခေါ်တဲ့ ညွှန်ကြားချက်ပေးရာမှာ တိကျလေ၊ အဖြေမှန် ပိုရနိုင်လေ ဖြစ်ပါတယ်။ မရေရာတဲ့ မေးခွန်းမျိုးကနေ ဒွိဟဖြစ်စရာ အဖြေကိုပဲ ပြန်ပေးနိုင်ပါလိမ့်မယ်။
မေးခွန်းတွေအတွက် အဖြေတွေကို ပေးထားခြင်းက လိုချင်တဲ့ အဖြေကို ရဖို့ ပိုနီးစပ်ပါတယ်။ ဆိုလိုချင်တာ Multiple Choice Questions လိုမျိုး အဖြေမှန် ရွေးခိုင်းခြင်းမျိုး ဖြစ်ပါတယ်။ LLMs ကို စီကာပတ်ကုံး ရှင်းလင်းချက် ဥပမာတွေ ခိုင်းနှိုင်းပြီး ညွှန်ကြားချက်ပေးတဲ့အခါ ပြန်ပေးလာတဲ့အဖြေက သိသာစွာကောင်းလာတာလည်း ရှိပါတယ်။ Chain-of-Thought Prompting လိုမျိုး နည်းလမ်းကို အသုံးပြုခြင်းကို ဆိုလိုပါတယ်။
နည်းပညာဘက်ကဆိုရင်တော့ LLMs ရဲ့ တိကျမှု၊ ယုံကြည်စိတ်ချရမှု စတဲ့စွမ်းဆောင်ရည်တွေကို စဥ်ဆက်မပြတ် တိုင်းတာနေတာမျိုး လုပ်လို့ရပါတယ်။ တခြားအရာတွေကတော့ -
Automated Retraining
Fine-Tuning the text generation parameters
Retrieval-Augmented Generation (RAG)
Constitutional AI