X(Twitter) မှာ AI နဲ့ ပြုလုပ်ထားတဲ့ ညစ်ညမ်း ဓါတ်ပုံတွေ ထွက်လာပြီးနောက် X မှာ Taylor Swift ကို ရှာလို့ မရအောင်ပြုလုပ်ထားပါတယ်။ “Taylor Swift” သို့မဟုတ် “Taylor Swift AI” လို့ X မှာ ရှာရင် “Something Went Wrong” ဆိုတဲ့ စာသားကို မြင်ရပါတယ်။ X ရဲ့ စီးပွားရေးလုပ်ငန်းဌာနမှ အကြီးအကဲ Joe Benarroch က အခုလို ယာယီပိတ်ပင်ထားတာလို့ အတည်ပြုပါတယ်။
Taylor Swift ရဲ့ ညစ်ညမ်းဓါတ်ပုံတွေ ထွက်လာပြီးနောက်မှာ X က အဲဒီဓါတ်ပုံတွေကို ဖျက်နေပြီး ဓါတ်ပုံတင်တဲ့ အကောင့်တွေကို အရေးယူနေတယ်လို့ ကြေညာခဲ့ပါတယ်။ X ရဲ့ မူဝါဒမှာ လူတွေကို နစ်နာစေတဲ့ ညစ်ညမ်းဓါတ်ပုံတွေ တင်တာကို ပိတ်ပင်ထားပါတယ်။
Meta ကလည်း အဲဒီပြဿနာကို ကိုင်တွယ်နေတယ်လို့ ထင်ရပြီး Threads နဲ့ Instagram မှာ Taylor Swift ကို ရှာရင် ဘာမှ မပြသပေးတော့ပါဘူး။ အဲဒီလို ရှာရင် အန္တရာယ်ရှိတဲ့ အဖွဲ့အစည်းနဲ့ လူတွေရဲ့ လုပ်ရပ်တွေနဲ့ ပတ်သက်နေတဲ့ Term ဖြစ်တယ်လို့ ဖော်ပြထားပါတယ်။
Taylor Swift ဟာ သူ့ရဲ့ ညစ်ညမ်း ဓါတ်ပုံတွေ တင်ထားတဲ့ ဝက်ဘ်ဆိုက်တွေကို တရားဥပဒေနဲ့ အရေးယူဖို့ စဉ်းစားနေတယ်လို့ သတင်းထွက်နေပါတယ်။ Microsoft CEO Satya Nadella က NBC Nightly News နဲ့ သောကြာနေ့က အင်တာဗျူးမှာ AI ကုမ္ပဏီတွေဟာ လူတွေ ဘေးကင်းစေမယ့် အစီအစဉ်တွေကို အမြန်ဆုံး ပြုလုပ်သင့်တယ်လို့ ပြောသွားပါတယ်။ အိမ်ဖြူတော်ရဲ့ အတွင်းရေးမှူး Karine Jean-Pierre က Deepfake Porn ကနေ လူတွေကို ကာကွယ်ဖို့ ဥပဒေတွေ ရေးဆွဲသင့်တယ်လို့ ပြောပါတယ်။
Ref : theverge
The post AI ညစ်ညမ်း ဓါတ်ပုံတွေ ထွက်လာပြီးနောက် X မှာ Taylor Swift ကို ရှာလို့ မရအောင် ပိတ်ပင်ထား appeared first on MyTech Myanmar.
Comments
Post a Comment