අද AI ලෝකය වෙනස් වෙනවා. එය කෑලි කෑලිවලට කැඩිලා. “splinternet” එකක් වගේ. මේකට හේතුවක් තමයි චීනය හදන “දේශප්රේමී AI”. මේක දියුණුයි, වේගවත්. එය චීනයේ අදහස්වලට ගැලපෙනවා.
මේ වෙනස එකපාරටම ආවේ නැහැ. 2022 අගදී OpenAI ChatGPT එළියට දැම්මා. ඒක චීනයට “ස්පුට්නික් මොහොතක්” වුණා. “අපි පස්සෙන් ඉන්නේ” කියා ඔවුන්ට තේරුණා.
චීනයේ “Great Firewall” ChatGPT අවහිර කළා. ඒත් කළු කඩවලින් ඒක ජනප්රිය වුණා. චීන ජනතාව කැමති වුණා. හැබැයි චීනයේ සමාගම් සහ රජය බය වුණා.
කියවිය යුතු: ChatGPT: AI වලින් බලගැන්වූ chatbot එක ගැන ඔබ දැනගත යුතු සියලුම දේවල්
චීනයේ AI උණ සහ රජයේ නීති
ChatGPT නිසා චීනයෙන් ඉක්මන් ප්රතිචාර ආවා. 2023 පෙබරවාරි වන විට, චීනයේ ලොකුම සමාගම් Baidu, Alibaba, Tencent ඔවුන් තමන්ගේම ChatGPT වගේ නිෂ්පාදන හදනවා කිව්වා. මේකෙන් චීනය පුරාම “AI උණක්” පැතිරුණා.
AIGC කර්මාන්තය 2025 වන විට ඩොලර් බිලියන 6කට ලංවේවි. 2030 වන විට ඩොලර් බිලියන 30කටත් වඩා වැඩිවේවි.
මේක තරඟයක් විතරක් නෙවෙයි. චීන රජය මෙය රටේ බලයට සහ ආර්ථිකයට වැදගත් ලෙස සැලකුවා. බටහිරින් ආපු AI එකක් තර්ජනයක් වුණා. එයාලගේ තොරතුරු පාලනයට හානියක් වුණා.
Baidu (Ernie Bot, 2023 මාර්තු) සහ Alibaba (Tongyi Qianwen, 2023 අප්රේල්) model හැදුවා. රජය නීති හැදුවා. 2023 අගෝස්තු වන විට, Generative AI Services සඳහා නීති ක්රියාත්මක වුණා.
ඒ නීතිවලින් කිව්වා, චීනයේ AI “මූලික සමාජවාදී වටිනාකම්” වලට අනුව යන්න ඕනේ කියලා. “ජාතික ආරක්ෂාවටයි සහ මහජන අවශ්යතාවලටයි” හානි නොකරන්න කිව්වා.
දේශප්රේමී AI හදන හැටි
චීන AI එයාලගේ අදහස්වලට ගැලපෙන්න පුහුණු කරන්නේ මුල ඉඳලමයි. බටහිර AI වගේ නෙවෙයි. චීන AI වලට දෙන දත්ත “පිරිසිදු කරනවා” (data cleansing). ඒ කියන්නේ, ගැටලු ඇති කරන්න පුළුවන් තොරතුරු අයින් කරනවා. දේශපාලන සංවේදී දේවල් ඉවත් කරනවා.
මාග්රට් රොබර්ට්ස් සහ එඩී යැං 2021 දී අධ්යයනයක් කළා. ඒකෙන් මේ වෙනස පෙන්නුවා. වාරණය නොකරපු චීන විකිපීඩියා දත්තවලින් AI එකක් පුහුණු කළා. ඒක “ප්රජාතන්ත්රවාදය” “ස්ථාවරත්වය” වගේ හොඳ දේවල් එක්ක සම්බන්ධ කළා. Baidu Baike (වාරණය කරපු විශ්වකෝෂය) දත්තවලින් පුහුණු කරපු AI එකක් “ප්රජාතන්ත්රවාදය” “අවුල්” වගේ නරක වචන එක්ක සම්බන්ධ කළා. “නිරීක්ෂණය” (surveillance) සහ “CCP” ධනාත්මක විදිහට තේරුම් ගත්තා. මේකෙන් පේනවා චීන AI හදන්නේ වෙනස් අදහස් පද්ධතියක් එක්ක කියලා.
දත්ත පිරිසිදු කරනවාට අමතරව, AI එකේ හැසිරීම පාලනය කරන්න “ආරක්ෂක වැටවල්” (guardrails) තියෙනවා. මේවා තත්ය කාලීනව (real-time) AI එකේ හැසිරීම බලනවා:
- ප්රශ්න සහ උත්තර පෙරීම: ටියානන්මෙන්, තායිවානය වගේ තහනම් මාතෘකා Blacklist කරලා තියෙනවා. ෂී ජින්පිං විවේචනය කිරීම වගේ දේවලුත් මේකට අයිතියි. ඒ වගේ වචනයක් දැක්කොත්, AI එක උත්තර දෙන්නේ නැහැ. වෙන මාතෘකාවකට මාරු වෙනවා. නැත්නම් “මට දැනුමක් නැහැ” කියලා කියනවා. Ernie Bot එකෙන් ෂී ජින්පිං ගැන ඇහුවම “තවම උත්තර දෙන්න ඉගෙනගෙන නැහැ” කියලා කියපු අවස්ථා තියෙනවා.
- මිනිස් ප්රතිපෝෂණවලින් ඉගෙනුම් (RLHF): මේ ක්රමය බටහිර රටවලත් පාවිච්චි කරනවා. චීනයේදී මේකෙන් කරන්නේ “දේශප්රේමී” උත්තරවලට හොඳ ලකුණු දෙන එකයි. වැරදි උත්තරවලට දඬුවම් කරනවා. AI එකට තමන්වම වාරණය කරගන්නත්, රජයට ඕන කරන කතාවට යන්නත් පුහුණු කරනවා.
- ක්රියාශීලීව කතාව හැඩගැස්වීම: මෑතකදී ගිගාබයිට් 300ක දත්ත කට්ටලයක් ලීක් වුණා. ඒකේ ප්රශ්න 133,000 ක් සහ උදාහරණ තිබුණා. මේවා හදලා තිබුණේ AI වලට මහජන මතයට අදාළ තොරතුරු වර්ගීකරණය කරන්නයි, ශ්රේණිගත කරන්නයි උගන්වන්නයි. මේකෙන් පේන්නේ වාරණය කියන්නේ අවහිර කරනවාට වඩා එහා ගිය දෙයක් බවයි. AI එක රාජ්යයට වාසිදායක කතාවක් හදන විදිහට පුහුණු කරනවා.
මේ පාලන ක්රම නිසා චීන AI බටහිර AI වලට වඩා වෙනස්. මේකෙන් පේන්නේ ඩිජිටල් ලෝක දෙකක් වගේ. එකක් විවෘතයි. අනිත් එක රාජ්යයට ඕන දේවල් විතරක් තියෙන තැනක්.
“DeepSeek මොහොත”: සීමා නිසා ආපු දියුණුව
අවුරුදු දෙකක් බටහිර රටවල් චීනයේ AI දියුණුව එච්චර ගණන් ගත්තේ නැහැ. ඔවුන් හිතුවේ Nvidia චිප්ස් (A100, H100 GPUs වගේ) අපනයනය තහනම් කළ නිසා (2022 ඔක්තෝබර්) චීනේ AI දියුණුව නවතී කියලා. ඒ නිසා චීන සමාගම්වලට අඩු බලගතු චිප්ස් නැත්නම් එයාලගේම ඒවා පාවිච්චි කරන්න සිද්ධ වුණා.
ඒත්, 2025 මුලදී, හැන්ග්ෂෝ වල DeepSeek කියන start-up එකක් AI model එළියට දැම්මා. ඒකෙන් Nvidia එකේ market value එක දවසින් බිලියන ගාණකින් අඩු වුණා. ඒක තමයි “DeepSeek මොහොත”. මේක පුදුමයි. චීනේ AI නවත්වන්න හදපු සම්බාධක (sanctions) නිසාම එයාලට අලුත් දේවල් හදන්න පොළඹවපු නිසයි.
පරිගණක සම්පත් හිඟ නිසා, DeepSeek ඉංජිනේරුවෝ කාර්යක්ෂමතාවයට (efficiency) මුල් තැන දුන්නා. එයාලගේ ක්රමය මෙන්න මේ වගේ:
- දුර්වල Mixture-of-Experts (MoE) Architecture: එයාලගේ ප්රධාන AI model එකට බිලියන 671ක parameter තිබුණත්, පොඩි කොටසක් (ඒ කියන්නේ බිලියන 37 ක්) විතරයි active වෙන්නේ. මේකෙන් වියදම ගොඩක් අඩු වෙනවා.
- Multi-head Latent Attention (MLA): මේක “KV cache” (කෙටි මතකය) සඳහා අලුත් යාන්ත්රණයක්. මේකෙන් මතක භාවිතය 5% ඉඳලා 13% දක්වා අඩු වුණා. ඒ කියන්නේ අඩු දෘඩාංගවලින් ලොකු AI model වැඩ කරන්න පුළුවන් වුණා.
- අඩු නිරවද්යතා අංක (FP8) සහ අලුත් software: FP8 වලින් පුහුණු කරන එක දෙගුණයක් වේගවත් වුණා. ඒ වගේම සම්මත FP16 precision එකට වඩා අඩක් මතකය පාවිච්චි කළා. එයාලා DualPipe වගේ software හදලා GPU වල සන්නිවේදනයත් දියුණු කළා.
මේ දියුණුව පුදුමයි. DeepSeek කිව්වා එයාලගේ model පුහුණු කරන්න Nvidia H800 GPUs 2,000ක් විතරයි ගියේ. වියදම ඩොලර් මිලියන 6ක් විතරයි.
Meta එකේ Llama 3 model එකට ගිය වියදමට (H100 GPUs 16,000 කටත් වැඩි, ඩොලර් මිලියන දස දහස් ගණන්) වඩා හරිම අඩුයි.
DeepSeek model, OpenAI’s GPT-4o සහ Anthropic’s Claude 3 වගේ model එක්ක සසඳනකොට reasoning, mathematics, coding වගේ දේවල්වලදී ඉතා හොඳ කාර්ය සාධනයක් පෙන්නුවා. මේකෙන් ඔප්පු වුණා සීමා තිබුණත් දියුණු වෙන්න පුළුවන් කියලා. තාක්ෂණික පරතරය වේගයෙන් අඩු වෙනවා කියලා.
වාරණයේ ගැටලුව සහ AI නැඹුරුව
“පරිපූර්ණ දේශප්රේමී AI එකක් හදන එකට ලොකු අභියෝග තියෙනවා. වාරණයෙන් දේශපාලන අරමුණු ඉටු වුණත්, ඒකෙන් AI model එකේ හැකියාවන්ට හානියක් වෙන්න පුළුවන්.
හාවඩ් AI පර්යේෂක Yonadav Shavit කිව්වා, “අන්තර්ජාලේ දේවල් බහුතරයක් ඉගෙන ගත්ත model එකකට මූලික කරුණු ඉගෙන නොගන්නා හැටි ඇත්තටම කිසිවෙකු දන්නේ නැහැ.” පාලනය කරපු දත්ත කට්ටලයක් පාවිච්චි කළොත්, AI එකේ බුද්ධියයි, නිර්මාණශීලීත්වයයි අඩු වෙන්න පුළුවන්. දැඩි filter දැම්මොත්, සාමාන්ය ප්රශ්නත් බ්ලොක් වෙන්න පුළුවන්. AI එක පාවිච්චි කරන්න බැරි වෙන්නත් පුළුවන්. මේක තමයි වාරණයේ උභතෝකෝටිකය (censor’s dilemma): දේශප්රේමී AI එක පාලනය කරන තරමට, ඒකේ බුද්ධිය අඩු වෙන්න පුළුවන්.
වැදගත්ම දේ තමයි, හැම AI model එකක්ම පක්ෂග්රාහීයි. බටහිර AI model ද ව්යතිරේකයක් නෙවෙයි. ස්ටැන්ෆෝර්ඩ් සහ ඩාට්මූත් විශ්ව විද්යාලවල 2025 දී කරපු අධ්යයනයක් තිබුණා.
ඒකෙන් පෙන්නුවා, බටහිර LLM (OpenAI, Google, Anthropic) වාමාංශික දේශපාලන නැඹුරුවක් තියෙනවා කියලා. මේක හිතාමාතා කරපු දෙයක් නෙවෙයි. හැබැයි බටහිර රටවල දත්තවලින් (WEIRD societies) සහ සිලිකන් නිම්නයේ අයගේ fine-tuning වලින් මේක ඇති වෙනවා.
ඒ නිසා, ප්රධාන වෙනස වෙන්නේ චීන AI පක්ෂග්රාහීයි, බටහිර AI මධ්යස්ථයි කියන එක නෙවෙයි. යථාර්ථය තමයි, අපි දකින්නේ පක්ෂග්රාහී AI වර්ග දෙකක් හැදෙනවා. එකක් ආණ්ඩුවෙන් කරන වාරණයෙන් හැඩගැස්සිලා තියෙනවා. අනිත් එක, ඒක හදන අයගේ සංස්කෘතික හා දේශපාලන සම්මතයන්ගෙන් හැඩගැස්සිලා තියෙනවා. කිසිම එකක් සැබෑ බුද්ධියක් නියෝජනය කරන්නේ නැහැ.