
(SeaPRwire) – ບໍລິສັດ AI ຊັ້ນນໍາຂອງໂລກມີລະດັບການຄຸ້ມຄອງຄວາມສ່ຽງທີ່ “ບໍ່ສາມາດຍອມຮັບໄດ້” ແລະ “ຂາດຄວາມມຸ່ງໝັ້ນຢ່າງເດັ່ນຊັດຕໍ່ຫຼາຍດ້ານຂອງຄວາມປອດໄພ,” ອີງຕາມການສຶກສາໃໝ່ສອງສະບັບທີ່ເຜີຍແຜ່ໃນວັນພະຫັດ.
ຄວາມສ່ຽງຂອງ AI ໃນປະຈຸບັນ—ໂດຍການຍອມຮັບຂອງບໍລິສັດຊັ້ນນໍາຫຼາຍແຫ່ງເອງ—ອາດລວມເຖິງ AI ຊ່ວຍຜູ້ກະທໍາຜິດດໍາເນີນການໂຈມຕີທາງໄຊເບີ ຫຼືສ້າງອາວຸດຊີວະພາບ. ນັກວິທະຍາສາດຊັ້ນນໍາກັງວົນວ່າຮູບແບບ AI ໃນອະນາຄົດອາດຈະຫຼຸດພົ້ນຈາກການຄວບຄຸມຂອງມະນຸດທັງໝົດ.
ການສຶກສາເຫຼົ່ານີ້ດໍາເນີນໂດຍອົງການບໍ່ຫວັງຜົນກໍາໄລ SaferAI ແລະ . ແຕ່ລະອັນແມ່ນ , ໃນສິ່ງທີ່ກຸ່ມຫວັງວ່າຈະເປັນຊຸດຢ່າງຕໍ່ເນື່ອງທີ່ຊຸກຍູ້ໃຫ້ບໍລິສັດ AI ຊັ້ນນໍາປັບປຸງການປະຕິບັດຂອງພວກເຂົາ.
Max Tegmark, ປະທານຂອງ FLI ກ່າວວ່າ “ພວກເຮົາຕ້ອງການເຮັດໃຫ້ມັນງ່າຍແທ້ໆສໍາລັບຄົນທີ່ຈະເຫັນວ່າໃຜບໍ່ພຽງແຕ່ເວົ້າເທົ່ານັ້ນ, ແຕ່ຍັງປະຕິບັດຕົວຈິງ”.
SaferAI ອະນຸສັນຍາການຄຸ້ມຄອງຄວາມສ່ຽງຂອງບໍລິສັດ AI ຊັ້ນນໍາ (ເອີ້ນກັນວ່າ ນະໂຍບາຍການຂະຫຍາຍຄວາມຮັບຜິດຊອບ) ເພື່ອໃຫ້ຄະແນນແຕ່ລະບໍລິສັດກ່ຽວກັບວິທີການກໍານົດແລະຫຼຸດຜ່ອນຄວາມສ່ຽງຂອງ AI.
ບໍ່ມີບໍລິສັດ AI ໃດໄດ້ຄະແນນດີກວ່າ “ອ່ອນແອ” ໃນການປະເມີນຄວາມແກ່ຂອງການຄຸ້ມຄອງຄວາມສ່ຽງຂອງ SaferAI. ຜູ້ທີ່ໄດ້ຄະແນນສູງສຸດແມ່ນ Anthropic (35%), ຕິດຕາມດ້ວຍ OpenAI (33%), Meta (22%) ແລະ Google DeepMind (20%). xAI ຂອງ Elon Musk ໄດ້ຄະແນນ 18%.
ສອງບໍລິສັດ, Anthropic ແລະ Google DeepMind, ໄດ້ຮັບຄະແນນຕໍ່າກວ່າຄັ້ງທໍາອິດທີ່ໄດ້ດໍາເນີນການສຶກສາ, ໃນເດືອນຕຸລາ 2024. ຜົນໄດ້ຮັບຫມາຍຄວາມວ່າ OpenAI ໄດ້ແຊງຫນ້າ Google ເປັນອັນດັບສອງໃນການຈັດອັນດັບຂອງ SaferAI.
Siméon Campos, ຜູ້ກໍ່ຕັ້ງຂອງ SaferAI, ກ່າວວ່າ Google ໄດ້ຄະແນນຕໍ່າເມື່ອທຽບກັບການເຮັດການຄົ້ນຄວ້າດ້ານຄວາມປອດໄພທີ່ດີ, ເພາະວ່າບໍລິສັດເຮັດຄໍາຫມັ້ນສັນຍາທີ່ຫນັກແຫນ້ນຫນ້ອຍໃນນະໂຍບາຍຂອງຕົນ. ບໍລິສັດຍັງໄດ້ປ່ອຍຕົວແບບຊັ້ນນໍາໃນຕົ້ນປີນີ້, Gemini 2.5, ໂດຍບໍ່ໄດ້ແບ່ງປັນຂໍ້ມູນຄວາມປອດໄພ—ໃນສິ່ງທີ່ Campos ເອີ້ນວ່າ “ຄວາມລົ້ມເຫຼວທີ່ຮ້າຍແຮງ”. ໂຄສົກຂອງ Google DeepMind ບອກ TIME ວ່າ: “ພວກເຮົາຕັ້ງໃຈທີ່ຈະພັດທະນາ AI ຢ່າງປອດໄພ ແລະ ປອດໄພເພື່ອເປັນປະໂຫຍດຕໍ່ສັງຄົມ. ມາດຕະການຄວາມປອດໄພ AI ກວມເອົາຄວາມຫຼາກຫຼາຍຂອງການຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ເປັນໄປໄດ້. ບົດລາຍງານທີ່ຜ່ານມາເຫຼົ່ານີ້ບໍ່ໄດ້ຄໍານຶງເຖິງຄວາມພະຍາຍາມດ້ານຄວາມປອດໄພ AI ທັງຫມົດຂອງ Google DeepMind, ທັງບໍ່ແມ່ນມາດຕະຖານອຸດສາຫະກໍາທັງຫມົດ. ວິທີການທີ່ສົມບູນແບບຂອງພວກເຮົາຕໍ່ຄວາມປອດໄພແລະຄວາມປອດໄພຂອງ AI ແມ່ນກວ້າງຂວາງເກີນກວ່າສິ່ງທີ່ຖືກຈັບໄດ້.”
ຄະແນນຂອງ Anthropic ຍັງຫຼຸດລົງນັບຕັ້ງແຕ່ SaferAI’s ໃນເດືອນຕຸລາ. ນີ້ແມ່ນເນື່ອງມາຈາກບາງສ່ວນຂອງການປ່ຽນແປງທີ່ບໍລິສັດໄດ້ເຮັດກັບ ມື້ກ່ອນການປ່ອຍຕົວແບບ Claude 4, ເຊິ່ງໄດ້ເຫັນ Anthropic ຖອນຄໍາຫມັ້ນສັນຍາຂອງຕົນເພື່ອແກ້ໄຂໄພຂົ່ມຂູ່ພາຍໃນເມື່ອເຖິງເວລາທີ່ມັນປ່ອຍຕົວແບບຂອງລະດັບນັ້ນ. Campos ກ່າວວ່າ “ນັ້ນແມ່ນຂະບວນການທີ່ບໍ່ດີຫຼາຍ”. Anthropic ບໍ່ໄດ້ຕອບສະຫນອງຕໍ່ຄໍາຮ້ອງຂໍຄວາມຄິດເຫັນໃນທັນທີ.
ຜູ້ຂຽນຂອງການສຶກສາຍັງກ່າວອີກວ່າວິທີການຂອງມັນໄດ້ກາຍເປັນລາຍລະອຽດເພີ່ມເຕີມນັບຕັ້ງແຕ່ເດືອນຕຸລາທີ່ຜ່ານມາ, ເຊິ່ງກວມເອົາບາງຄວາມແຕກຕ່າງໃນການໃຫ້ຄະແນນ.
ບໍລິສັດທີ່ປັບປຸງຄະແນນຂອງພວກເຂົາຫຼາຍທີ່ສຸດແມ່ນ xAI, ເຊິ່ງໄດ້ຄະແນນ 18% ທຽບກັບ 0% ໃນເດືອນຕຸລາ; ແລະ Meta, ເຊິ່ງໄດ້ຄະແນນ 22% ທຽບກັບຄະແນນກ່ອນຫນ້າຂອງ 14%.
ການສຶກສາຂອງ FLI ແມ່ນກວ້າງກວ່າ—ບໍ່ພຽງແຕ່ເບິ່ງການປະຕິບັດການຄຸ້ມຄອງຄວາມສ່ຽງ, ແຕ່ຍັງເບິ່ງວິທີການຂອງບໍລິສັດຕໍ່ກັບອັນຕະລາຍໃນປະຈຸບັນ, ຄວາມປອດໄພທີ່ມີຢູ່ແລ້ວ, ການປົກຄອງ, ແລະການແບ່ງປັນຂໍ້ມູນ. ຄະນະຜູ້ຊ່ຽວຊານເອກະລາດຫົກຄົນໄດ້ໃຫ້ຄະແນນແຕ່ລະບໍລິສັດໂດຍອີງໃສ່ການທົບທວນເອກະສານທີ່ມີໃຫ້ສາທາລະນະເຊັ່ນ: ນະໂຍບາຍ, ເອກະສານຄົ້ນຄວ້າແລະບົດລາຍງານຂ່າວ, ພ້ອມກັບຂໍ້ມູນທີ່ບໍ່ເປີດເຜີຍເພີ່ມເຕີມທີ່ບໍລິສັດໄດ້ຮັບໂອກາດທີ່ຈະສະຫນອງ. ເກດທີ່ສູງທີ່ສຸດແມ່ນໄດ້ຄະແນນໂດຍ Anthropic (C ບວກ). OpenAI ໄດ້ຄະແນນ C, ແລະ Google ໄດ້ຄະແນນ C ລົບ. (ທັງ xAI ແລະ Meta ໄດ້ຄະແນນ D.)
ຢ່າງໃດກໍຕາມ, ໃນຄະແນນຂອງ FLI ສໍາລັບວິທີການຂອງແຕ່ລະບໍລິສັດຕໍ່ “ຄວາມປອດໄພທີ່ມີຢູ່ແລ້ວ,” ທຸກໆບໍລິສັດໄດ້ຄະແນນ D ຫຼືຕ່ໍາກວ່າ. Tegmark ກ່າວວ່າ “ພວກເຂົາທັງຫມົດກໍາລັງເວົ້າວ່າ: ພວກເຮົາຕ້ອງການສ້າງເຄື່ອງຈັກ superintelligent ທີ່ສາມາດຫລອກລວງມະນຸດໃນທຸກໆທາງ, ແລະເຖິງຢ່າງໃດກໍ່ຕາມ, ພວກເຂົາບໍ່ມີແຜນການກ່ຽວກັບວິທີທີ່ພວກເຂົາຈະຄວບຄຸມສິ່ງນີ້”.
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.
“`
