Vietnam.vn - Nền tảng quảng bá Việt Nam

ការស្រាវជ្រាវថ្មី៖ AI មិនមានហេតុផលដូចមនុស្សទេ។

កម្មវិធីបញ្ញាសិប្បនិម្មិត (AI) ទទួលបានលទ្ធផលគួរឲ្យចាប់អារម្មណ៍ ប៉ុន្តែការស្រាវជ្រាវថ្មីបង្ហាញថា យើងមិនគួរនិយាយហួសហេតុពេកទេ ដែលថា AI អាចហេតុផលដូចមនុស្ស។

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

កម្មវិធីបញ្ញាសិប្បនិមិត្តទទួលបានភាពជោគជ័យជាច្រើនក្នុងប៉ុន្មានឆ្នាំថ្មីៗនេះ - រូបថត៖ REUTERS

យើងមិនអាចសង្កេតមើលដំណើរការទាំងមូលពីទិន្នន័យបញ្ចូលរហូតដល់លទ្ធផលលទ្ធផលនៃគំរូភាសាធំ (LLMs) បានទេ។

ដើម្បីធ្វើឱ្យវាកាន់តែងាយស្រួលយល់ អ្នកវិទ្យាសាស្ត្រ បានប្រើពាក្យសាមញ្ញដូចជា "ហេតុផល" ដើម្បីពិពណ៌នាអំពីរបៀបដែលកម្មវិធីទាំងនេះដំណើរការ។ ពួកគេក៏និយាយផងដែរថាកម្មវិធីអាច "គិត" "ហេតុផល" និង "យល់" ពីរបៀបដែលមនុស្សធ្វើ។

លើសសមត្ថភាពរបស់ AI

ក្នុងរយៈពេល 2 ឆ្នាំកន្លងមកនេះ នាយកប្រតិបត្តិ AI ជាច្រើនបានប្រើ hyperbole ដើម្បីបំផ្លើសសមិទ្ធិផលបច្ចេកទេសសាមញ្ញ នេះបើយោងតាម ​​ZDNET នៅថ្ងៃទី 6 ខែកញ្ញា។

នៅក្នុងខែកញ្ញា ឆ្នាំ 2024 OpenAI បានប្រកាសថា គំរូហេតុផល o1 "ប្រើខ្សែសង្វាក់នៃការសន្និដ្ឋាននៅពេលដោះស្រាយបញ្ហា ស្រដៀងនឹងវិធីដែលមនុស្សគិតក្នុងរយៈពេលយូរនៅពេលប្រឈមមុខនឹងសំណួរពិបាកៗ"។

ទោះយ៉ាងណាក៏ដោយ អ្នកវិទ្យាសាស្ត្រ AI ជំទាស់។ ពួកគេជឿថា AI មិនមានបញ្ញារបស់មនុស្សទេ។

ការសិក្សាលើមូលដ្ឋានទិន្នន័យ arXiv ដោយក្រុមអ្នកនិពន្ធនៅសាកលវិទ្យាល័យ Arizona State (សហរដ្ឋអាមេរិក) បានផ្ទៀងផ្ទាត់សមត្ថភាពហេតុផលរបស់ AI ជាមួយនឹងការពិសោធន៍សាមញ្ញមួយ។

លទ្ធផលបានបង្ហាញថា "ការសន្និដ្ឋានតាមខ្សែសង្វាក់នៃការគិតគឺជាការបំភាន់ដ៏ផុយស្រួយ" មិនមែនជាយន្តការឡូជីខលពិតប្រាកដនោះទេ ប៉ុន្តែគ្រាន់តែជាទម្រង់ដ៏ស្មុគ្រស្មាញនៃការផ្គូផ្គងគំរូប៉ុណ្ណោះ។

ពាក្យ "ខ្សែសង្វាក់នៃការគិត" (CoT) អនុញ្ញាតឱ្យ AI មិនត្រឹមតែទទួលបានចម្លើយចុងក្រោយប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងបង្ហាញនូវជំហាននីមួយៗនៃហេតុផលឡូជីខល ដូចជានៅក្នុងគំរូ GPT-o1 ឬ DeepSeek V1 ផងដែរ។

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

រូបភាពនៃគំរូភាសា GPT-2 របស់ OpenAI - រូបថត៖ ECHOCRAFTAI

ពិនិត្យមើលអ្វីដែល AI ពិតជាធ្វើ

អ្នកស្រាវជ្រាវបាននិយាយថា ការវិភាគខ្នាតធំបង្ហាញថា LLM មានទំនោរពឹងផ្អែកលើអត្ថន័យ និងតម្រុយលើផ្ទៃជាជាងដំណើរការហេតុផលឡូជីខល។

ក្រុមពន្យល់ថា "LLM បង្កើតខ្សែសង្វាក់តក្កវិជ្ជាលើផ្ទៃខាងលើ ដោយផ្អែកលើការផ្សារភ្ជាប់ការបញ្ចូលដែលបានសិក្សា ជារឿយៗបរាជ័យលើកិច្ចការដែលខុសពីវិធីសាស្ត្រហេតុផលធម្មតា ឬលំនាំដែលធ្លាប់ស្គាល់"។

ដើម្បីសាកល្បងសម្មតិកម្មដែលថា LLM គ្រាន់តែជាគំរូដែលត្រូវគ្នាប៉ុណ្ណោះ ហើយមិនបង្កើតការសន្និដ្ឋានពិតប្រាកដទេ ក្រុមការងារបានបណ្តុះបណ្តាល GPT-2 ដែលជាគំរូប្រភពបើកចំហដែលចេញផ្សាយដោយ OpenAI ក្នុងឆ្នាំ 2019 ។

គំរូនេះត្រូវបានបណ្តុះបណ្តាលដំបូងលើការងារសាមញ្ញបំផុតនៅលើអក្សរអង់គ្លេសចំនួន 26 ដូចជាការបញ្ច្រាសអក្សរមួយចំនួន ឧទាហរណ៍ការប្រែ "APPLE" ទៅជា "EAPPL" ។ បន្ទាប់មកក្រុមបានផ្លាស់ប្តូរភារកិច្ចហើយបានស្នើសុំឱ្យ GPT-2 ដោះស្រាយវា។

លទ្ធផលបង្ហាញថា សម្រាប់កិច្ចការដែលមិនត្រូវបានរាប់បញ្ចូលក្នុងទិន្នន័យបណ្តុះបណ្តាល GPT-2 មិនអាចដោះស្រាយបានត្រឹមត្រូវដោយប្រើ CoT ទេ។

ផ្ទុយទៅវិញ គំរូព្យាយាមអនុវត្តកិច្ចការដែលបានរៀនស្រដៀងគ្នាច្រើនបំផុត។ ដូច្នេះ "ការសន្និដ្ឋាន" របស់វាអាចស្តាប់ទៅសមហេតុផល ប៉ុន្តែលទ្ធផលតែងតែខុស។

ក្រុមនេះបានសន្និដ្ឋានថា មនុស្សម្នាក់មិនគួរពឹងផ្អែកខ្លាំងពេក ឬជឿជាក់លើចម្លើយរបស់ LLM ដោយងងឹតងងុលនោះទេ ព្រោះពួកគេអាចបង្កើត "ការសមហេតុសមផលដែលស្តាប់ទៅគួរឱ្យជឿជាក់" ។

ពួកគេក៏បានសង្កត់ធ្ងន់ផងដែរអំពីតម្រូវការក្នុងការស្វែងយល់ពីធម្មជាតិពិតនៃ AI ជៀសវាងការឃោសនាបំផ្លើស និងបញ្ឈប់ការផ្សព្វផ្សាយថា AI មានសមត្ថភាពវែកញែកដូចមនុស្ស។

ត្រឡប់ទៅ ប្រធានបទ
អាញ់ធូ

ប្រភព៖ https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


Kommentar (0)

No data
No data

ប្រធានបទដូចគ្នា

ប្រភេទដូចគ្នា

ភាពស្រស់ស្អាតនៃឈូងសមុទ្រ Ha Long ត្រូវបាន UNESCO ទទួលស្គាល់ជាបេតិកភណ្ឌបីដង។
បាត់​ខ្លួន​ក្នុង​ការ​បរបាញ់​ពពក​នៅ Ta Xua
មាន​ភ្នំ​ផ្កា​ស៊ីម​ពណ៌​ស្វាយ​នៅ​លើ​មេឃ​នៃ​ Son La
ចង្កៀងគោម - អំណោយពិធីបុណ្យពាក់កណ្តាលរដូវស្លឹកឈើជ្រុះនៅក្នុងការចងចាំ

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

;

រូប

;

អាជីវកម្ម

;

No videos available

ព្រឹត្តិការណ៍បច្ចុប្បន្ន

;

ប្រព័ន្ធនយោបាយ

;

ក្នុងស្រុក

;

ផលិតផល

;