Thursday, June 13, 2024

Understanding AI Hallucinations: Mitigate Misinformation & Get Better Answers

 ရက်စွဲ – ၁၁.၀၆.၂၀၂၄

AI နည်ပညာတွေသည် တရှိန်ထိုးအောင်မြင်လာမှုနဲ့အတူ အရမ်ကို သြချလောက်စရာ စွမ်းဆောင်ရည်တွေ ပါဝင်လာပါတယ်။ လူသားတွေသာလျှင် အသုံးပြုတဲ့ ဘာသာစကားမြောက်မြားစွာကို ကောင်းမွန်စွာ နားလည်ရုံသာက သင့်လျောတဲ့ ကြံဉာဏ်၊ သုံးသပ်ချက်တွေကို အကိုးအကားှင့်တကွ န်ထုတ်ပေးလာပါတယ်။ အသံတွေကို ကြားနိုင်၊ နားလည်နိုင်တဲ့အပြင် ဗွီဒီယိုရုပ်သံ ဖန်တီးတည်းဖြတ်မှုများ၊ အချက်အလက်စာများသာမက ရုပ်ပုံ၊ မြေပုံများကို ဖတ်ရှုရှာဖွေကာ အနှစ်ချုပ်အဖြစ် ပြန်လည်ဖော်ပြပေးခြင်း များကိုလည်း လုပ်ဆောင်ပေးနိုင်ပါတယ်။ ဆိုရရင် လူတစ်ယောက်ရဲ့ နေ့စဥလုပ်ငန်းတွေမှာ အကျိုးများစွာ ရှိစေတဲ့အထိ အသုံးဝင်လာပါတယ်။

ဘာသာစကားတွေကို နားလည်တဲ့ နည်းညာဖြစ်တဲ့ LLMs ရဲ့ ကျေးဇူးကြောင့် နိုင်ငံ၊လူမျိုးဘာသာစကား မည်သည့်အတားအဆီမျှမရှိဘဲ အချက်အလက်တွေ ရှာဖွေဖို့၊ လေ့လာဖို့၊ သင်ယူဖို့ ပိုမိုလွယ်ကူလာပါတယ်။  လူသားအသုံးပြုသူအနေနဲ့ မိမိတို့ရဲ့ မိခင်ဘာသာစကားနဲ့ AI နည်ပညာကို အသုံးပြုချင်ကြသူ ပိုများပါလိမ့်မယ်။ ဒါ့ကြောင့် ကျွန်မသည်လည်း ကျွန်မ၏ မိခင်ဘာသာစကား မြန်မာဘာသာဖြင့် ဗမာစကားပုံတွေအကြောင်းကို လေ့လာဖြစ်ခဲ့ပါတယ်။ ဒီနေရာမှာတွေ့လာရတာက အချို့စကားပုံတွေက မှားယွင်းနေတာမျိုးတစ်ခါတစ်ရံ စာလုံးပေါင်းသတ်ပုံမှားယွင်းနေတာမျိုး ကိုတွေ့လာရပါတယ်။ ကိုယ်တိုင်သိပြီးသား စကားပုံတွေဖြစ်တဲ့ အတွက် ပြန်ပေးလာတဲ့ သုံသပ်ချက်တွေကို သိပ်ပြီး သဘောမတွေ့လှပါဘူး။ အဖြေအတွက် ဇဝေဇဝါ၊ သံသယတွေ၊  ထင်ယောင်ထင်မှားတွေ ဖြစ်ရပါတယ်။ 

ဒါ့ကြောင့်ပဲ ကျွန်မက LLMs တွေမှဖြစ်လေ့ရှိတဲ့ Hallucinations (ထင်ယောင်ထင်မှာဖြစ်စေမှု) အကြောင်းကို တင်ပြပေးသွားမှဖြစ်ပါတယ်။ သိထားမယ်ဆိုရင် LLMs နည်းပညာကပေးတဲ့ အကျိုးကျေးဇူးကိုပိုရနိုင်လို့ပဲ ဖြစ်ပါတယ်။

LLMs မှHallucinations ဆိုတလက်တွေ့မှာမရှိတာကို အရှိလုပ်ပြီး ခိုင်ခိုင်မမာ အဖြေပြန်ပေးတာမျိုး၊ မှားယွင်တဲ့အဖြေကို သုံးသပ်တင်ပြတာမျိုး ဖြစ်ပါတယ်။ တစ်ခါတစ်ရံ အကိုးအကားဝဘ်ဆိုဒ်လိပ်စအမှားတွေ ကိုတောင် ပြန်ပေးလေ့ရှိပါတယ်။ ဒီလိုမျိုး မတိကျတဲ့၊ မမှန်ကန်တဲ့ရလဒ်တွေက ားလည်မှုလွဲမှားစေပါတယ်။ သတင်းအမှားတစ်ခုကို ဖြန့်လိုက်သလိုဖြစ်လို့ လက်တွေ့လောကမှာ အဆိပ်အတောက်တစ်ခုလို့ ဆိုချင်ပါတယ်။ စိတ်ကူယဥ်ဝတ္ထုတစ်ပုဒ်၊ ကဗျာတစ်ပုဒ်ကို ဖန်တီးရှာဖွေနေတာသာဆိုလျှင် ပြဿနာအကြီးကြီး မဟုတ်ပေမယ့် ဆေးညာဆိုင်ရာ၊ ဥပဒေဆိုင်ရာ စတာတွေမှာ ဆုံးဖြတ်ချက်ချဖို့ အထောက်အထားရှာနေတာဆိုလျှင်တောအန္တရာယ်ရှိသွားပါပြီ။ LLMs တွေက မှန်သည်၊ မှားည် စဥ်းစားဆုံးဖြတ်ပြီးမှ အဖြေကို ပြန်ပေးတာမဟုတ်ဘဲ သူ့မှာရှိနေတဲ့ အချက်အလက်တွေကို အသုံးပြုပြီး အဖြစ်နိုင်ဆုံး၊ အသင့်တော်ဆုံးကို ယုံကြည်ချက်ရှိရှိ ခိုင်ခိုင်မာမာ ပြန်ပေးတယ်ဆိုတာ သတိပြုရပါမယ်။

 

LLMs အတွက်တေဒီ hallucinations တွေက အရေးကြီးတဲ့ တားဆီးမှုတစ်ခုဖြစ်ပြီး စိန်ခေါ်မှုတစ်ခုဆိုရင်လည်း မမှားပါဘူး။

LLMs မှHallucinations နှစ်မျိုရှိပါတယ်။ အချက်အလက်ဆိုင်ရာ မမှန်ကန်မှုကြောင့်သော်လည်းကောင်း၊ စိတ်ကူးယဥ်လုပ်ကြံဖန်တီးထားတဲ့ အကြောင်းအရာတွေပေါ်မူတည်ခြင်း ကြောင့်သော်လည်းကောင်း ဖြစ်လာတဲ့  Factuality Hallucinations နဲ့ ကြေင်းကျိုးဆီလျော်မှုမရှိ၊  ယုတ္တိမရှိတဲ့ Faithfulness Hallucinations တို့ ဖြစ်ပါတယ်။

Hallucinations ဖြစ်ရတဲ့ အကြောင်းရင်းများစွာ ရှိပါတယ်။

  • LLMs ကို Trained ားတဲ့ Dataset မှမေခွန်းကို ဖြေနိုင်မယ့် လုံလောက်တဲ့ Knowledge ရှိမနေတကြောင့် ဖြစ်နိုင်ပါတယ်။ Knowledge ဖြစ်လစေမယ့် Resource လုံလေက်မှု အားနည်းတာကြောင့်လို့လည်း ယူဆနိုင်ပါတယ်။

  • LLMs က, မှားယွင်တဲ့ အချက်အလက်တွေကို ရရှိထားတာလည်း ဖြစ်နိုင်ပါတယ်။ စိတ်ကူးယဥ်ပုံပြင်၊ ဇာတ်လမ်းလို အကြောင်းအရာတွေက အချက်အလက်တွေဟာ တကယ့်အပြင်လက်တွေ့မှာ မရှိတာကြောင့် ဖြစ်ပါတယ်။

  • နေက်တစ်ချက်က, ခေတ်ဟေင်းအချက်အလက်တွေကြောင့် ဖြစ်ပါတယ်။ ဆိုလိုချင်တာက ပြဌာန်းချက်တွေ၊ ဥပဒေ၊ စည်းမျဥ်းတွေသည် အခါအားလျော်စွာ ပြောင်းလဲကျင့်သုံးတာမျိုး ရှိတတ် ပါတယ်။

  • ဒါ့အပြင် သက်ဆိုင်ရာ နယ်ပယ်အသီးသီးရဲ့ သတ်မှတ်ချက်၊ အခေါ်အဝေါတွေပြည့်စုံစွာ ရှိမနေတာကြောင့်လည်း ဖြစ်တတ်ပါတယ်။ သက်ဆိုင်ရဘာသာရပ်ကို ကျွမ်းကျင်မှုမရှိဘဲ တင်ပြထားမှု တွေ၊ သက်ဆိုင်ရာဘာသာရပ်ကို ကျွမ်းကျင်သော်လည်း ဘာသာစကား ဝေါဟာအသုံးပြုမှု မှားယွင်ခြင်း တွေကြေင့်လည်း ဖြစ်နိုင်ပါတယ်။

  • ရှုပ်ထွေတဲ့ အကြောင်းအရာတွေကြောင့် LLMs ရဲ့ နားလည်မှုကို ကျဆင်းစေပြီး ဒွိဟဖြစ်စာ၊ မှားယွင်တဲ့ အဖြေတွေကိုသာ ရတတ်ပါတယ်။ မိမိမျှေ်မှန်းထားသလို မှန်ကန်တိကျတဲ့ ကျေနပ်ဖွယ် အဖြေရရှိဖို့ရန်မှာ အမေးမှာလည်း ရှင်းလင်းတိကျဖို့ လိုအပ်ပါယ်။

  • Hallucinations ကို ဖြစ်စေတဲ့ နောက်အကြေင်းအရာတစ်ခုကတောBiases ဖြစ်ပတယ်။ အားလုံးပဲ သိထားပြီးသား ဖြစ်တဲ့အတိုင်း Gender Biases လိုမျိုပါ။ လူတိုင်းရဲ့ အတွေထဲမှာ သူနာပြုဆိုရင် အမျိုးသမီကို အများဆုံး ပြေးမြင်ကြလေ့ရှိပြီး တကယ့်လက်တွေ့မှာက အမျိုသားသူနာပြုတွေလည်း ရှိနေတာပဲ ဖြစ်ပါတယ်။

LLMs မှဒီလို အချက်အလက်နဲ့ပတ်သတ်တဲ့ Hallucinations ဖြစ်ရခြင်တွေကို လျှော့ချလို့ရပေမယ့် တစ်နေရာရာမှာတောကျန်ရှိသွားကောင်းကျန်နေနိုင်ပါသေးတယ်။ ဒါပေမယ့်လည်း တတ်နိုင်သလောက် လျှော့ချရမှာ ဖြစ်လို့  ဖြေရှင်းနိုင်မယ့် နည်းလမ်း အချို့ကို ဖော်ပြပေးလိုက်ပါတယ်။ ဒီနည်းလမ်းတွေကိသုံးပြုသူတိုင်းက နည်းပညာကျွမ်းကျင်မှု မလိုအပ်ဘဲ လုပ်ဆောင်နိုင်ပါတယ်။

  • သတင်း၊ အချက်အလက်ရင်းမြစ် အားနည်းတာမျိုး အတွက် သုတေသနပြုလုပ်ကာ စုစည်း ထားနိုင်ပါတယ်။ ယေဘူယျ ဝေါဟာရ၊ စာလုံးပေါင်းသတ်ပုံ၊ ဝါကျထားသိုပုံတည်ဆောက်ပုံက,အစ စနစ်တကျ ရှိသင့်ပါတယ်။ သင်ရိုညွှန်းတမ်းတွေ၊ ပြဌာန်းစာအုပ်၊ ကျမ်းဂန်တွေသည် ယေဘူယျအားဖြင့် မှန်ကန်တိကျပြီး အရည်အသွေးမြင့်တဲ့ အချက်အလက်တွေအဖြစ် မှတ်ယူနိုင်ပါတယ်။

  • မှားယွင်းတဲ့အချက်အလက်တွေ မရှိစေဖို့ လူအင်အားသုံးပြီး စီစစ် စစ်ဆေးတာမျိုးက, အချက်အလက်တွေကို ပိုပြီး တိကျ မှန်ကန် စေပါလိမ့်မယ်။ အသုံးပြုသူရဲ့ တုံ့ပြန်ချက် (Feedback)သုံးသပ်ချက် (review) တွေကလည်း LLMs တွေအတွက် အထောက်အကူ ဖြစ်ပတယ်။ ဆိုလိုချင်တာက မိမိက အသုံးပြုသူ ဖြစ်နေပြီး အချက်အလက် မှန်မှန်ကန်ကန်ကို သိထားတယ်ဆိုရင် Feedback အနေနဲ့ အမှန်ပြင်ပေးတဲ့ သဘောကို ဆိုလိုပါတယ်။

  • သုတေသနတမ်းအသစ်အသစ်တွေကို အမြဲမပြတ် စစ်ဆေမှတ်တမ်းတင်ထားဖို့ လိုအပ်ပါတယ်။ သက်ဆိုင်ရကျွမ်ကျင်ပညာရှင်များရဲအကြံဥာဏ်ပေးချက်များဖြင့် စီစစ်ဖို့လည်လိုပါတယ်။

  • ရလိုတဲ့အဖြေအတွက် မေးခွန်းမေးတဲ့အခါ တတ်နိုင်သမျှ ရှင်းရှင်လင်းလင်း ရှိဖို့လိုအပ်ပါတယ်။ Prompt Engineering လို့ခေ်တဲညွှန်ကြားချက်ပေးရာမှာ တိကျလေ၊ အဖြေမှန် ပိုရနိုင်လေ ဖြစ်ပါတယ်။ မရေရာတဲ့ မေးခွန်းမျိုးကနေ ဒွိဟဖြစ်စရာ အဖြေကိုပဲ ပြန်ပေးနိုင်ပါလိမ့်မယ်။

  • မေခွန်းတွေအတွက် အဖြေတွေကို ပေးထားခြင်းက လိုချင်တဲ့ အဖြေကို ရဖို့ ပိုနီးစပ်ပါတယ်။ ဆိုလိုချင်တာ Multiple Choice Questions လိုမျိုအဖြေမှန် ရွေးခိုင်းခြင်းမျိုး ဖြစ်ပါတယ်။ LLMs ကို စီကပတ်ကုံး ရှင်းလင်းချက် ဥပမာတွေ ခိုင်းနှိုင်းပြီး ညွှန်ကြားချက်ပေးတဲ့အခပြန်ပေလာတဲ့အဖြေက သိသာစွာကောင်းတာလည်း ရှိပါတယ်။ Chain-of-Thought Prompting လိုမျိုး နည်းလမ်းကို အသုံးပြုခြင်းကို ဆိုလိုပါတယ်။

 

နည်ညာဘက်ကဆိုရင်တောLLMs ရဲတိကျမှု၊ ယုံကြည်စိတ်ချရမှု စတဲ့စွမ်းဆောင်ရည်တွေကို စဥ်ဆက်မပြတ် တိုင်းတာနေတာမျိုး လုပ်လို့ရပါတယ်။ တခြားအရာတွေကတော့ -

  • Automated Retraining

  • Fine-Tuning the text generation parameters

  • Retrieval-Augmented Generation (RAG)

  • Constitutional AI

ယခုဖော်ပြထားသည့်အကြောင်းအရာများသည် ယေဘုယျ အကျဉ်းချုပ်များသာ ဖြစ်ပါတယ်။ AI နည်းပညာတွေကို ပိုမိုအကျိုးရှိစွာ အသုံးချနိုင်ဖို့ Hallucinations တွေကို လျှော့ချဖို့ က,တော့ LLMs တွေအတွက် စိန်ခေါ်မှုတစ်ရပ်အဖြစ် ဆက်လက်ရှိနေပါလိမ့်ဦးမယ်။


No comments:

Post a Comment

Understanding AI Hallucinations: Mitigate Misinformation & Get Better Answers

  ရက်စွဲ  – ၁၁ .၀၆.၂၀၂၄ AI နည် း ပညာ တွေ သည် တရှိန်ထိ ုး အော င်မြင်လာ မှု နဲ့အတူ   အရမ် း ကို သြချလော က်စ ရာ စွမ်း ဆော င်ရည်တွေ ပါ ဝင်လာ ပါ ...