អ្វីដែលត្រូវរំពឹងពី AI នៅឆ្នាំ 2023

ក្នុងនាមជាអ្នកនិពន្ធដែលទទួលបានជោគជ័យផ្នែកពាណិជ្ជកម្មធ្លាប់បានសរសេរថា “យប់ងងឹតហើយពោរពេញដោយភាពភ័យរន្ធត់ ថ្ងៃភ្លឺ និងស្រស់ស្អាត និងពោរពេញដោយក្តីសង្ឃឹម”។ វាសមនឹងរូបភាពសម្រាប់ AI ដែលបច្ចេកវិទ្យាទាំងអស់មានចំណុចឡើង និងចុះក្រោម។

ជាឧទាហរណ៍ គំរូដែលបង្កើតសិល្បៈដូចជា Stable Diffusion បាននាំឱ្យមានការលេចចេញនូវភាពច្នៃប្រឌិត មិនគួរឱ្យជឿ កម្មវិធីផ្តល់ថាមពល និងសូម្បីតែគំរូអាជីវកម្មថ្មីទាំងស្រុង។ ម្យ៉ាងវិញទៀត ធម្មជាតិប្រភពបើកចំហរបស់វាអនុញ្ញាតឱ្យតួអង្គអាក្រក់ប្រើវាដើម្បីបង្កើតការក្លែងបន្លំយ៉ាងជ្រៅក្នុងទំហំ – ទាំងអស់ខណៈពេលដែលសិល្បករតវ៉ាថាវាទទួលបានផលចំណេញពីការងាររបស់ពួកគេ។

តើមានអ្វីនៅលើនាវាសម្រាប់ AI នៅឆ្នាំ 2023? តើបទប្បញ្ញត្តិនឹងស្ថិតក្នុងភាពអាក្រក់បំផុតនៃអ្វីដែល AI នាំមកឬក៏ទ្វារទឹកជំនន់បើក? តើទម្រង់ថ្មីដ៏មានអានុភាពនៃ AI នឹងលេចចេញជា La ChatGPT រំខានដល់ឧស្សាហកម្មដែលធ្លាប់គិតថាមានសុវត្ថិភាពពីស្វ័យប្រវត្តិដែរឬទេ?
រំពឹងថានឹងមានកម្មវិធី AI ដែលបង្កើតសិល្បៈច្រើនជាង (បញ្ហា)

ជាមួយនឹងភាពជោគជ័យរបស់ Lensa ដែលជាកម្មវិធី selfie ដើរដោយថាមពល AI ពី Prisma Labs ដែលបានឆ្លងមេរោគ អ្នកអាចរំពឹងថានឹងមានកម្មវិធី me-too ជាច្រើននៅតាមបន្ទាត់ទាំងនេះ។ ហើយរំពឹងថាពួកគេក៏មានសមត្ថភាពត្រូវបានបោកបញ្ឆោតឱ្យបង្កើតរូបភាព NSFW និងធ្វើឱ្យការរួមភេទមិនសមហេតុផល និងផ្លាស់ប្តូររូបរាងរបស់ស្ត្រី។

Maximilian Gahntz អ្នកស្រាវជ្រាវគោលនយោបាយជាន់ខ្ពស់នៅមូលនិធិ Mozilla បាននិយាយថាគាត់រំពឹងថាការរួមបញ្ចូល AI ជំនាន់ថ្មីទៅក្នុងបច្ចេកវិទ្យាអ្នកប្រើប្រាស់នឹងពង្រីកឥទ្ធិពលនៃប្រព័ន្ធបែបនេះទាំងល្អនិងអាក្រក់។

ជាឧទាហរណ៍ Stable Diffusion ត្រូវបានផ្តល់អាហាររាប់លានរូបភាពពីអ៊ីនធឺណិត រហូតដល់វា “រៀន” ដើម្បីភ្ជាប់ពាក្យ និងគំនិតមួយចំនួនជាមួយនឹងរូបភាពជាក់លាក់។ គំរូបង្កើតអត្ថបទត្រូវបានបោកបញ្ឆោតយ៉ាងងាយស្រួលក្នុងការប្រើប្រាស់ទិដ្ឋភាពដែលប្រមាថមើលងាយ ឬផលិតមាតិកាដែលបំភាន់។

លោក Mike Cook សមាជិកនៃក្រុមស្រាវជ្រាវបើកចំហ Knives and Paintbrushes យល់ស្របជាមួយ Gahntz ថា AI ជំនាន់ថ្មីនឹងបន្តបង្ហាញពីភាពសំខាន់ និងបញ្ហា – បង្ខំឱ្យមានការផ្លាស់ប្តូរ។ ប៉ុន្តែគាត់គិតថាឆ្នាំ 2023 ត្រូវតែជាឆ្នាំដែល AI បង្កើត “ទីបំផុតដាក់លុយរបស់វានៅកន្លែងដែលមាត់របស់វាស្ថិតនៅ”។

“វាមិនគ្រប់គ្រាន់ទេក្នុងការជំរុញសហគមន៍អ្នកឯកទេស [បង្កើតបច្ចេកវិទ្យាថ្មី] — សម្រាប់បច្ចេកវិទ្យាដើម្បីក្លាយជាផ្នែកមួយដ៏យូរអង្វែងនៃជីវិតរបស់យើង វាត្រូវតែរកលុយបានច្រើន ឬមានឥទ្ធិពលដ៏មានន័យលើជីវិតប្រចាំថ្ងៃ។ របស់សាធារណជនទូទៅ” លោក Cook បាននិយាយ។ “ដូច្នេះខ្ញុំព្យាករណ៍ថាយើងនឹងឃើញការជំរុញដ៏ធ្ងន់ធ្ងរមួយដើម្បីធ្វើឱ្យ AI ជំនាន់នោះសម្រេចបាននូវរឿងមួយក្នុងចំណោមរឿងទាំងពីរនេះ ជាមួយនឹងភាពជោគជ័យចម្រុះ។”
សិល្បករដឹកនាំកិច្ចខិតខំប្រឹងប្រែងដើម្បីជ្រើសរើសចេញពីសំណុំទិន្នន័យ

DeviantArt បានចេញផ្សាយឧបករណ៍បង្កើតសិល្បៈ AI ដែលត្រូវបានបង្កើតឡើងនៅលើ Stable Diffusion និងមានការកែសម្រួលលើស្នាដៃសិល្បៈពីសហគមន៍ DeviantArt ។ អ្នកបង្កើតសិល្បៈត្រូវបានជួបជាមួយនឹងការមិនពេញចិត្តយ៉ាងខ្លាំងពីប្រជាជនយូរអង្វែងរបស់ DeviantArt ដែលបានរិះគន់ពីកង្វះតម្លាភាពនៃវេទិកាក្នុងការប្រើប្រាស់សិល្បៈដែលបានបង្ហោះរបស់ពួកគេដើម្បីបណ្តុះបណ្តាលប្រព័ន្ធ។

អ្នកបង្កើតប្រព័ន្ធពេញនិយមបំផុត – OpenAI និង Stability AI – និយាយថាពួកគេបានចាត់វិធានការដើម្បីកំណត់បរិមាណមាតិកាដែលបង្កគ្រោះថ្នាក់ដែលប្រព័ន្ធរបស់ពួកគេផលិត។ ប៉ុន្តែការវិនិច្ឆ័យដោយមនុស្សជាច្រើនជំនាន់នៅលើប្រព័ន្ធផ្សព្វផ្សាយសង្គម វាច្បាស់ណាស់ថាមានការងារត្រូវធ្វើ។

លោក Gahntz បាននិយាយថា “សំណុំទិន្នន័យទាមទារឱ្យមានការរៀបចំយ៉ាងសកម្មដើម្បីដោះស្រាយបញ្ហាទាំងនេះ ហើយគួរតែត្រូវបានត្រួតពិនិត្យយ៉ាងសំខាន់ រួមទាំងពីសហគមន៍ដែលមានទំនោរទៅរកការបញ្ចប់ខ្លីៗ” Gahntz បាននិយាយថា ដោយប្រៀបធៀបដំណើរការទៅនឹងភាពចម្រូងចម្រាសដែលកំពុងបន្តលើការសម្របសម្រួលមាតិកានៅក្នុងប្រព័ន្ធផ្សព្វផ្សាយសង្គម។

Stability AI ដែលភាគច្រើនផ្តល់មូលនិធិដល់ការអភិវឌ្ឍន៍ Stable Diffusion ថ្មីៗនេះបានទំលាក់សម្ពាធជាសាធារណៈដោយបង្ហាញសញ្ញាថាវានឹងអនុញ្ញាតឱ្យសិល្បករដកខ្លួនចេញពីសំណុំទិន្នន័យដែលប្រើដើម្បីបណ្តុះបណ្តាលគំរូ Stable Diffusion ជំនាន់ក្រោយ។ តាមរយៈគេហទំព័រ HaveIBeenTrained.com ម្ចាស់សិទ្ធិនឹងអាចស្នើសុំការជ្រើសយកមុនពេលការបណ្តុះបណ្តាលចាប់ផ្តើមក្នុងរយៈពេលពីរបីសប្តាហ៍។

OpenAI ផ្តល់​នូវ​យន្តការ​ជ្រើសរើស​មិន​ចេញ​បែប​នេះ ជំនួស​ឱ្យ​ការ​ចូល​ចិត្ត​ធ្វើ​ជា​ដៃគូ​ជាមួយ​អង្គការ​ដូចជា Shutterstock ដើម្បី​ផ្តល់​អាជ្ញាប័ណ្ណ​ផ្នែក​នៃ​វិចិត្រសាល​រូបភាព​របស់​ពួកគេ។ ប៉ុន្តែ​ដោយសារ​ការ​ផ្សព្វផ្សាយ​ជា​សាធារណៈ​ស្រប​ច្បាប់ និង​ច្បាស់លាស់​ដែល​វា​ប្រឈម​មុខ​នឹង​ស្ថិរភាព AI វា​ទំនង​ជា​មាន​ពេល​តែ​មួយ​គត់​មុន​ពេល​វា​ធ្វើ​តាម។

ទីបំផុតតុលាការអាចបង្ខំដៃរបស់ខ្លួន។ នៅសហរដ្ឋអាមេរិក Microsoft, GitHub និង OpenAI កំពុងត្រូវបានប្តឹងនៅក្នុងបណ្តឹងសកម្មភាពថ្នាក់ដែលចោទប្រកាន់ពួកគេពីបទបំពានច្បាប់រក្សាសិទ្ធិដោយអនុញ្ញាតឱ្យ Copilot, សេវាកម្មរបស់ GitHub ដែលឆ្លាតវៃណែនាំបន្ទាត់កូដ បញ្ចូលផ្នែកនៃកូដដែលមានអាជ្ញាប័ណ្ណឡើងវិញដោយមិនផ្តល់ឥណទាន។

ប្រហែលជារំពឹងថានឹងប្រឈមមុខនឹងបញ្ហាផ្លូវច្បាប់ ថ្មីៗនេះ GitHub បានបន្ថែមការកំណត់ដើម្បីការពារកូដសាធារណៈមិនឱ្យបង្ហាញនៅក្នុងការផ្ដល់យោបល់របស់ Copilot និងផែនការណែនាំលក្ខណៈពិសេសដែលនឹងយោងប្រភពនៃការណែនាំកូដ។ ប៉ុន្តែពួកគេជាវិធានការមិនល្អឥតខ្ចោះ។ យ៉ាងហោចណាស់ឧទាហរណ៍មួយ ការកំណត់តម្រងបណ្តាលឱ្យ Copilot បញ្ចេញកូដរក្សាសិទ្ធិមួយចំនួនធំ រួមទាំងការបញ្ជាក់ និងអត្ថបទអាជ្ញាប័ណ្ណទាំងអស់។

រំពឹងថានឹងឃើញការរិះគន់កើនឡើងក្នុងឆ្នាំខាងមុខនេះ ជាពិសេសនៅពេលដែលចក្រភពអង់គ្លេសកំពុងពិចារណាលើច្បាប់ដែលនឹងដកចេញនូវតម្រូវការដែលប្រព័ន្ធដែលបានបណ្តុះបណ្តាលតាមរយៈទិន្នន័យសាធារណៈត្រូវបានប្រើប្រាស់យ៉ាងតឹងរ៉ឹងមិនមែនពាណិជ្ជកម្ម។
ប្រភពបើកចំហ និងកិច្ចខិតខំប្រឹងប្រែងវិមជ្ឈការនឹងបន្តរីកចម្រើន

ឆ្នាំ 2022 បានឃើញក្រុមហ៊ុន AI មួយក្តាប់តូចគ្រប់គ្រងលើឆាកនេះ ជាចម្បង OpenAI និង Stability AI ។ ប៉ុន្តែប៉ោលអាចវិលត្រលប់ទៅរកប្រភពបើកចំហវិញនៅឆ្នាំ 2023 ដោយសារសមត្ថភាពក្នុងការបង្កើតប្រព័ន្ធថ្មីផ្លាស់ទីលើសពី “មន្ទីរពិសោធន៍ AI ដែលសម្បូរធនធាន និងដ៏មានថាមពល” ដូចដែល Gahntz បាននិយាយ។

វិធីសាស្រ្តសហគមន៍អាចនាំឱ្យមានការពិនិត្យមើលប្រព័ន្ធកាន់តែច្រើននៅពេលដែលពួកគេកំពុងត្រូវបានសាងសង់ និងដាក់ឱ្យប្រើប្រាស់ គាត់បាននិយាយថា “ប្រសិនបើគំរូបើកចំហ ហើយប្រសិនបើសំណុំទិន្នន័យបើកចំហ នោះនឹងអនុញ្ញាតឱ្យមានការស្រាវជ្រាវសំខាន់ៗជាច្រើនទៀតដែលបានចង្អុលបង្ហាញជាច្រើន គុណវិបត្តិ និង​គ្រោះថ្នាក់​ដែល​ភ្ជាប់​ទៅ​នឹង AI ជំនាន់​ថ្មី ហើយ​វា​ច្រើន​តែ​ពិបាក​ក្នុង​ការ​អនុវត្ត។»

ឧទាហរណ៍នៃកិច្ចខិតខំប្រឹងប្រែងផ្តោតលើសហគមន៍បែបនេះ រួមមានគំរូភាសាធំៗពី EleutherAI និង BigScience ដែលជាកិច្ចខិតខំប្រឹងប្រែងដែលគាំទ្រដោយ AI startup Hugging Face។ ស្ថេរភាព AI កំពុងផ្តល់មូលនិធិដល់សហគមន៍មួយចំនួនដូចជា Harmonai និង OpenBioML ដែលផ្តោតលើជំនាន់តន្ត្រីដែលជាបណ្តុំនៃការពិសោធន៍ជីវបច្ចេកវិទ្យា។

ប្រាក់ និងជំនាញនៅតែត្រូវបានទាមទារដើម្បីបណ្តុះបណ្តាល និងដំណើរការគំរូ AI ដ៏ទំនើប ប៉ុន្តែការគណនាវិមជ្ឈការអាចប្រឈមនឹងមជ្ឈមណ្ឌលទិន្នន័យបែបប្រពៃណី ដោយសារកិច្ចខិតខំប្រឹងប្រែងប្រភពបើកចំហមានភាពចាស់ទុំ។

BigScience បានបោះជំហានឆ្ពោះទៅរកការអនុញ្ញាតឱ្យមានការអភិវឌ្ឍន៍វិមជ្ឈការជាមួយនឹងការចេញផ្សាយថ្មីៗនេះនៃគម្រោង Open Source Petals ។ Petals អនុញ្ញាតឱ្យមនុស្សចូលរួមចំណែកថាមពលកុំព្យូទ័ររបស់ពួកគេ ស្រដៀងទៅនឹង [email protected] ដើម្បីដំណើរការគំរូភាសា AI ដ៏ធំដែលជាធម្មតាត្រូវការ GPU ឬម៉ាស៊ីនមេកម្រិតខ្ពស់។

“ម៉ូដែលជំនាន់ទំនើបមានតម្លៃថ្លៃក្នុងការគណនាសម្រាប់ការហ្វឹកហាត់ និងដំណើរការ។ លោក Chandra Bhagavatula អ្នកវិទ្យាសាស្ត្រស្រាវជ្រាវជាន់ខ្ពស់នៅវិទ្យាស្ថាន Allen សម្រាប់ AI បាននិយាយតាមរយៈអ៊ីមែល “ដើម្បីធ្វើឱ្យពាណិជ្ជកម្មនេះអាចដំណើរការបាន និងអាចចូលដំណើរការបានកាន់តែទូលំទូលាយ វានឹងមានសារៈសំខាន់ក្នុងការដោះស្រាយបញ្ហានេះ”។

ទោះជាយ៉ាងណាក៏ដោយ Chandra ចង្អុលបង្ហាញថាមន្ទីរពិសោធន៍ធំ ៗ នឹងបន្តមានគុណសម្បត្តិប្រកួតប្រជែងដរាបណាវិធីសាស្ត្រនិងទិន្នន័យនៅតែមានកម្មសិទ្ធិ។ នៅក្នុងឧទាហរណ៍ថ្មីៗនេះ OpenAI បានចេញផ្សាយ Point-E ដែលជាគំរូដែលអាចបង្កើតវត្ថុ 3D ដែលបានផ្តល់ឱ្យប្រអប់បញ្ចូលអត្ថបទ។ ប៉ុន្តែខណៈពេលដែល OpenAI បើកប្រភពគំរូនោះ វាមិនបានបង្ហាញប្រភពនៃទិន្នន័យបណ្តុះបណ្តាលរបស់ Point-E ឬបញ្ចេញទិន្នន័យនោះទេ។

លោក Chandra បាននិយាយថា “ខ្ញុំគិតថាកិច្ចខិតខំប្រឹងប្រែងប្រភពបើកចំហ និងកិច្ចខិតខំប្រឹងប្រែងវិមជ្ឈការពិតជាមានតម្លៃ និងជាផលប្រយោជន៍របស់អ្នកស្រាវជ្រាវ អ្នកអនុវត្ត និងអ្នកប្រើប្រាស់មួយចំនួនធំ” Chandra បាននិយាយថា។ “ទោះជាយ៉ាងណាក៏ដោយ ទោះបីជាមានប្រភពបើកចំហក៏ដោយ គំរូដ៏ល្អបំផុតនៅតែមិនអាចចូលប្រើបានសម្រាប់អ្នកស្រាវជ្រាវ និងអ្នកអនុវត្តមួយចំនួនធំ ដោយសារឧបសគ្គនៃធនធានរបស់ពួកគេ។”
ក្រុមហ៊ុន AI ទប់ទល់នឹងបទប្បញ្ញត្តិចូល

បទប្បញ្ញត្តិដូចជាច្បាប់ AI របស់សហភាពអឺរ៉ុបអាចផ្លាស់ប្តូររបៀបដែលក្រុមហ៊ុនអភិវឌ្ឍ និងប្រើប្រាស់ប្រព័ន្ធ AI ឆ្ពោះទៅមុខ។ ដូច្នេះ កិច្ចខិតខំប្រឹងប្រែងក្នុងស្រុកអាចកាន់តែច្រើនដូចជាលក្ខន្តិកៈជួល AI របស់ទីក្រុងញូវយ៉ក ដែលតម្រូវឱ្យបច្ចេកវិទ្យាផ្អែកលើ AI និងក្បួនដោះស្រាយសម្រាប់ការជ្រើសរើស ជួល ឬការផ្សព្វផ្សាយត្រូវបានធ្វើសវនកម្មសម្រាប់ភាពលំអៀងមុនពេលប្រើប្រាស់។

Chandra មើលឃើញបទប្បញ្ញត្តិទាំងនេះជាការចាំបាច់ ជាពិសេសនៅក្នុងពន្លឺនៃកំហុសបច្ចេកទេសជាក់ស្តែងកាន់តែខ្លាំងឡើងរបស់ AI ដូចជាទំនោរក្នុងការផ្សព្វផ្សាយព័ត៌មានខុស។

“នេះធ្វើឱ្យ AI ជំនាន់មុនពិបាកក្នុងការអនុវត្តសម្រាប់ផ្នែកជាច្រើនដែលកំហុសអាចមានការចំណាយខ្ពស់ – ឧ. ការ​ថែទាំ​សុខភាព។ លើសពីនេះ ភាពងាយស្រួលនៃការបង្កើតព័ត៌មានមិនត្រឹមត្រូវ បង្កើតបញ្ហាប្រឈមជុំវិញព័ត៌មានមិនពិត និងព័ត៌មានមិនពិត”។ “[និង​នៅ​ឡើយ​ទេ] ប្រព័ន្ធ AI កំពុង​ធ្វើ​ការ​សម្រេច​ចិត្ត​រួច​ហើយ​ដែល​ផ្ទុក​ទៅ​ដោយ​ផល​ប៉ះពាល់​ខាង​សីលធម៌ និង​សីលធម៌។

នៅឆ្នាំក្រោយនឹងនាំមកនូវការគំរាមកំហែងនៃបទប្បញ្ញត្តិប៉ុណ្ណោះ ទោះបីជា – រំពឹងថានឹងមានភាពតានតឹងបន្ថែមទៀតលើច្បាប់ និងសំណុំរឿងរបស់តុលាការ មុនពេលនរណាម្នាក់ត្រូវបានពិន័យ ឬការចោទប្រកាន់។ ប៉ុន្តែក្រុមហ៊ុនអាចនៅតែជាក្រុមសម្រាប់តំណែងនៅក្នុងប្រភេទអត្ថប្រយោជន៍បំផុតនៃច្បាប់នាពេលខាងមុខ ដូចជាប្រភេទហានិភ័យនៃច្បាប់ AI ជាដើម។

ច្បាប់ដូចដែលបានសរសេរនាពេលបច្ចុប្បន្ននេះ បានបែងចែកប្រព័ន្ធ AI ទៅជាប្រភេទហានិភ័យមួយក្នុងចំណោមបួនប្រភេទ ដែលនីមួយៗមានតម្រូវការ និងកម្រិតនៃការត្រួតពិនិត្យខុសៗគ្នា។ ប្រព័ន្ធនៅក្នុងប្រភេទហានិភ័យខ្ពស់បំផុត AI “ហានិភ័យខ្ពស់” (ឧ. ក្បួនដោះស្រាយការដាក់ពិន្ទុឥណទាន កម្មវិធីវះកាត់មនុស្សយន្ត) ត្រូវតែបំពេញតាមស្តង់ដារច្បាប់ សីលធម៌ និងបច្ចេកទេសជាក់លាក់ មុនពេលពួកគេត្រូវបានអនុញ្ញាតឱ្យចូលទៅក្នុងទីផ្សារអឺរ៉ុប។ ប្រភេទហានិភ័យទាបបំផុត AI “តិចតួច ឬគ្មានហានិភ័យ” (ឧ. តម្រងសារឥតបានការ ហ្គេមវីដេអូដែលប្រើ AI) កំណត់តែកាតព្វកិច្ចតម្លាភាព ដូចជាការធ្វើឱ្យអ្នកប្រើប្រាស់ដឹងថាពួកគេកំពុងធ្វើអន្តរកម្មជាមួយប្រព័ន្ធ AI ប៉ុណ្ណោះ។

Os Keyes, Ph.D. បេក្ខជននៅសាកលវិទ្យាល័យ Washington បានសម្តែងការព្រួយបារម្ភថាក្រុមហ៊ុននានានឹងមានបំណងសម្រាប់កម្រិតហានិភ័យទាបបំផុត ដើម្បីកាត់បន្ថយទំនួលខុសត្រូវផ្ទាល់ខ្លួន និងលទ្ធភាពមើលឃើញចំពោះនិយតករ។

ពួកគេបាននិយាយថា “ការព្រួយបារម្ភនោះក្រៅពី [ច្បាប់ AI] ពិតជារឿងវិជ្ជមានបំផុតដែលខ្ញុំឃើញនៅលើតុ” ។ “ខ្ញុំមិនបានឃើញអ្វីច្រើនពីសភាទេ។”
ប៉ុន្តែការវិនិយោគមិនមែនជារឿងប្រាកដនោះទេ។

Gahntz អះអាងថា ទោះបីជាប្រព័ន្ធ AI ដំណើរការបានល្អគ្រប់គ្រាន់សម្រាប់មនុស្សភាគច្រើន ប៉ុន្តែមានគ្រោះថ្នាក់ខ្លាំងចំពោះមនុស្សមួយចំនួនក៏ដោយ វានៅតែមាន “កិច្ចការផ្ទះជាច្រើនដែលនៅសល់” មុនពេលដែលក្រុមហ៊ុនគួរតែធ្វើឱ្យវាអាចប្រើបានយ៉ាងទូលំទូលាយ។ “វា​ក៏​មាន​ករណី​អាជីវកម្ម​សម្រាប់​រឿង​ទាំង​អស់​នេះ​ដែរ។ ប្រសិនបើម៉ូដែលរបស់អ្នកបង្កើតរបស់ដែលរញ៉េរញ៉ៃច្រើន អ្នកប្រើប្រាស់នឹងមិនចូលចិត្តវាទេ”។ ប៉ុន្តែ​ច្បាស់​ណាស់ នេះ​ក៏​ជា​រឿង​យុត្តិធម៌​ផង​ដែរ»។

វាមិនច្បាស់ទេថាតើក្រុមហ៊ុននានានឹងត្រូវបានបញ្ចុះបញ្ចូលដោយអំណះអំណាងដែលនឹងឈានចូលដល់ឆ្នាំក្រោយឬយ៉ាងណា ជាពិសេសដោយសារតែអ្នកវិនិយោគហាក់ដូចជាចង់ដាក់ប្រាក់របស់ពួកគេលើសពី AI ជំនាន់ដែលរំពឹងទុក។

នៅចំកណ្តាលនៃភាពចម្រូងចម្រាសដែលមានស្ថេរភាព ស្ថេរភាព AI បានរៃអង្គាសប្រាក់បាន 101 លានដុល្លារក្នុងតម្លៃលើសពី 1 ពាន់លានដុល្លារពីអ្នកគាំទ្រដ៏លេចធ្លោរួមទាំង Coatue និង Lightspeed Venture Partners ។ OpenAI ត្រូវបានគេនិយាយថាមានតម្លៃ 20 ពាន់លានដុល្លារ ខណៈដែលវាចូលទៅក្នុងកិច្ចពិភាក្សាកម្រិតខ្ពស់ដើម្បីប្រមូលមូលនិធិបន្ថែមទៀតពី Microsoft (ក្រុមហ៊ុន Microsoft ពីមុនបានវិនិយោគ 1 ពាន់លានដុល្លារក្នុង OpenAI ក្នុងឆ្នាំ 2019។ )

ជាការពិតណាស់ ទាំងនេះអាចជាករណីលើកលែងចំពោះច្បាប់។

យោងតាម Crunchbase បានឱ្យដឹងថា ក្រៅពីក្រុមហ៊ុនបើកបរដោយខ្លួនឯង Cruise, Wayve និង WeRide និងក្រុមហ៊ុនមនុស្សយន្ត MegaRobo ក្រុមហ៊ុន AI ដែលកំពុងដំណើរការកំពូលទាក់ទងនឹងប្រាក់ដែលបានរៃអង្គាសនៅឆ្នាំនេះគឺផ្អែកលើកម្មវិធី។ Contentsquare ដែលលក់សេវាកម្មដែលផ្តល់ការណែនាំដែលជំរុញដោយ AI សម្រាប់មាតិកាគេហទំព័របានបិទចំនួន 600 លានដុល្លារក្នុងខែកក្កដា។ Uniphore ដែលលក់កម្មវិធីសម្រាប់ “ការវិភាគការសន្ទនា” (គិតលេខមជ្ឈមណ្ឌលហៅទូរស័ព្ទ) និងជំនួយការសន្ទនាបានចុះចត 400 លានដុល្លារក្នុងខែកុម្ភៈ។ ទន្ទឹមនឹងនេះដែរ Highspot ដែលវេទិកាដែលដំណើរការដោយ AI ផ្តល់ឱ្យអ្នកតំណាងផ្នែកលក់ និងអ្នកទីផ្សារជាមួយនឹងការណែនាំតាមទិន្នន័យ និងពេលវេលាជាក់ស្តែង បានទទួលប្រាក់ចំនួន 248 លានដុល្លារក្នុងខែមករា។

វិនិយោគិនអាចដេញតាមការភ្នាល់ដែលមានសុវត្ថិភាពជាងមុន ដូចជាការវិភាគដោយស្វ័យប្រវត្តិនៃការត្អូញត្អែររបស់អតិថិជន ឬបង្កើតការនាំមុខក្នុងការលក់ បើទោះបីជាទាំងនេះមិនមែនជា “ស៊ិចស៊ី” ដូច AI ទូទៅក៏ដោយ។ នោះមិនមែនបង្ហាញថានឹងមិនមានការវិនិយោគដែលទាក់ទាញចំណាប់អារម្មណ៍ធំនោះទេ ប៉ុន្តែពួកគេនឹងត្រូវបានបម្រុងទុកសម្រាប់អ្នកលេងដែលមានអំណាច។

techcrunch