
(SeaPRwire) – “ຈີນບໍ່ສົນໃຈເລື່ອງຄວາມປອດໄພຂອງ AI — ເປັນຫຍັງພວກເຮົາຈຶ່ງຄວນສົນໃຈ?” ເຫດຜົນທີ່ຜິດພາດນີ້ແຜ່ຂະຫຍາຍໄປສູ່ນະໂຍບາຍຂອງສະຫະລັດ ແລະ ວົງການເຕັກໂນໂລຊີ, ສະໜອງການປົກປ້ອງການແຂ່ງຂັນແບບບໍ່ສົນໃຈຄວາມສ່ຽງ ໃນຂະນະທີ່ວໍຊິງຕັນຟ້າວແລ່ນເພື່ອແຊງໜ້າປັກກິ່ງໃນການພັດທະນາ AI.
ອີງຕາມເຫດຜົນນີ້, ການຄວບຄຸມ AI ຈະສ່ຽງຕໍ່ການຕົກຢູ່ໃນສະຖານະການທີ່ເອີ້ນວ່າ “.” ແລະເນື່ອງຈາກວ່າຈີນຄາດວ່າຈະບໍ່ໃຫ້ຄວາມສໍາຄັນກັບຄວາມປອດໄພ, ການແຂ່ງຂັນໄປຂ້າງຫນ້າ — ເຖິງແມ່ນວ່າແບບບໍ່ສົນໃຈຄວາມສ່ຽງ — ແມ່ນການພະນັນທີ່ປອດໄພກວ່າໃນໄລຍະຍາວ. ຄໍາບັນຍາຍນີ້ບໍ່ພຽງແຕ່ ; ມັນອັນຕະລາຍ.
ໃນທາງກົງກັນຂ້າມ, ຜູ້ນໍາຈີນອາດຈະມີບົດຮຽນສໍາລັບຜູ້ສະໜັບສະໜູນ AI ຂອງສະຫະລັດ: ຄວາມ ທີ່ແທ້ຈິງຕ້ອງການການຄວບຄຸມ. ດັ່ງທີ່ເຈົ້າຫນ້າທີ່ເຕັກໂນໂລຢີຊັ້ນນໍາຂອງຈີນ, Ding Xuexiang, ໄດ້ກ່າວໄວ້ ທີ່ Davos ໃນເດືອນມັງກອນ 2025 ວ່າ: “ຖ້າລະບົບເບຣກບໍ່ໄດ້ຢູ່ພາຍໃຕ້ການຄວບຄຸມ, ທ່ານບໍ່ສາມາດກ້າວໄປຂ້າງຫນ້າດ້ວຍຄວາມຫມັ້ນໃຈ.” ສໍາລັບຜູ້ນໍາຈີນ, ຄວາມປອດໄພບໍ່ແມ່ນຂໍ້ຈໍາກັດ; ມັນເປັນເງື່ອນໄຂເບື້ອງຕົ້ນ.
ຄວາມປອດໄພຂອງ AI ໄດ້ກາຍເປັນ ທາງດ້ານການເມືອງໃນປະເທດຈີນ. ໃນເດືອນເມສາ, ປະທານປະເທດ Xi Jinping ໄດ້ເປັນປະທານກອງປະຊຸມ Politburo ທີ່ຫາຍາກ ກ່ຽວກັບ AI ເຕືອນເຖິງຄວາມສ່ຽງ “ທີ່ບໍ່ເຄີຍມີມາກ່ອນ”. ຂອງຈີນໃນປັດຈຸບັນລາຍຊື່ຄວາມປອດໄພຂອງ AI ຄຽງຄູ່ກັບການແຜ່ລະບາດແລະການໂຈມຕີທາງໄຊເບີ. ຜູ້ຄວບຄຸມຮຽກຮ້ອງໃຫ້ມີການປະເມີນຄວາມປອດໄພກ່ອນການນໍາໃຊ້ສໍາລັບ AI ທີ່ສ້າງຂຶ້ນແລະບໍ່ດົນມານີ້ໄດ້ເອົາອອກ ຜະລິດຕະພັນ AI ທີ່ບໍ່ປະຕິບັດຕາມອອກຈາກຕະຫຼາດ. ໃນເຄິ່ງທໍາອິດຂອງປີນີ້, ປະເທດຈີນໄດ້ ມາດຕະຖານ AI ແຫ່ງຊາດຫຼາຍກວ່າສາມປີທີ່ຜ່ານມາ. ໃນຂະນະດຽວກັນ, ປະລິມານເອກະສານດ້ານວິຊາການທີ່ສຸມໃສ່ຄວາມປອດໄພຂອງ AI ທີ່ກ້າວໜ້າໄດ້ ໃນປີທີ່ຜ່ານມາໃນປະເທດຈີນ.
ແຕ່ຄັ້ງສຸດທ້າຍທີ່ຜູ້ນໍາສະຫະລັດແລະຈີນໄດ້ພົບປະເພື່ອປຶກສາຫາລືກ່ຽວກັບຄວາມສ່ຽງຂອງ AI ແມ່ນຢູ່ໃນ . ໃນເດືອນກັນຍາ, ເຈົ້າຫນ້າທີ່ຈາກທັງສອງປະເທດໄດ້ແນະນໍາ ຂອງການສົນທະນາ “ໃນເວລາທີ່ເຫມາະສົມ”. ແຕ່ບໍ່ມີການປະຊຸມໃດໆເກີດຂຶ້ນພາຍໃຕ້ການບໍລິຫານຂອງ Biden, ແລະມີຄວາມບໍ່ແນ່ນອນຫຼາຍກວ່າເກົ່າກ່ຽວກັບວ່າການບໍລິຫານຂອງ Trump ຈະເລືອກເອົາໄມ້ຄ້ອນຫຼືບໍ່. ນີ້ແມ່ນໂອກາດທີ່ພາດ.
ປະເທດຈີນເປີດໃຫ້ການຮ່ວມມື. ໃນເດືອນພຶດສະພາ 2025, ມັນ ການສົນທະນາ AI ສອງຝ່າຍກັບອັງກິດ. ນັກວິທະຍາສາດຈີນທີ່ເຄົາລົບນັບຖືໄດ້ປະກອບສ່ວນເຂົ້າໃນຄວາມພະຍາຍາມລະຫວ່າງປະເທດທີ່ສໍາຄັນ, ເຊັ່ນ: ທີ່ໄດ້ຮັບການສະຫນັບສະຫນູນຈາກ 33 ປະເທດແລະອົງການຈັດຕັ້ງລະຫວ່າງລັດຖະບານ (ລວມທັງສະຫະລັດແລະຈີນ) ແລະກ່ຽວກັບ Global AI Safety Research Priorities.
ຂັ້ນຕອນທໍາອິດທີ່ຈໍາເປັນແມ່ນການຟື້ນຟູການສົນທະນາລະຫວ່າງສະຫະລັດ – ຈີນທີ່ບໍ່ມີການເຄື່ອນໄຫວ ກ່ຽວກັບຄວາມສ່ຽງຂອງ AI. ຖ້າບໍ່ມີຊ່ອງທາງລັດຖະບານຕໍ່ລັດຖະບານທີ່ເຮັດວຽກ, ຄວາມສົດໃສດ້ານສໍາລັບການປະສານງານຍັງຄົງບາງ. ປະເທດຈີນຊີ້ໃຫ້ເຫັນວ່າມັນເປີດໃຫ້ສືບຕໍ່ການສົນທະນາໃນທ້າຍສະໄໝການປົກຄອງຂອງ Biden. ມັນໄດ້ໃຫ້ຜົນຜະລິດແລ້ວເຊິ່ງເປັນຂໍ້ຕົກລົງເລັກນ້ອຍແຕ່ມີຄວາມສໍາຄັນທາງດ້ານສັນຍາລັກ: ຢືນຢັນວ່າການຕັດສິນໃຈຂອງມະນຸດຕ້ອງຍັງຄົງຢູ່ໃນການຄວບຄຸມອາວຸດນິວເຄລຍ. ຊ່ອງທາງນີ້ມີທ່າແຮງສໍາລັບຄວາມຄືບຫນ້າເພີ່ມເຕີມ.
ໃນອະນາຄົດ, ການສົນທະນາຄວນສຸມໃສ່ໄພຂົ່ມຂູ່ຮ່ວມກັນ, ທີ່ມີຄວາມສ່ຽງສູງ. ພິຈາລະນາ OpenAI ທີ່ຜ່ານມາ ຂອງ ChatGPT Agent ຫຼ້າສຸດຂອງຕົນວ່າໄດ້ຂ້າມຂອບເຂດ “ຄວາມສາມາດສູງ” ໃນຂະແຫນງຊີວະພາບພາຍໃຕ້ ຂອງບໍລິສັດເອງ. ນີ້ຫມາຍຄວາມວ່າຕົວແທນສາມາດ, ຢ່າງຫນ້ອຍໃນຫຼັກການ, ໃຫ້ຜູ້ໃຊ້ຄໍາແນະນໍາທີ່ມີຄວາມຫມາຍທີ່ອາດຈະຊ່ວຍອໍານວຍຄວາມສະດວກໃນການສ້າງໄພຂົ່ມຂູ່ທາງຊີວະພາບທີ່ເປັນອັນຕະລາຍ. ທັງສອງ ແລະປັກກິ່ງມີ ໃນການປ້ອງກັນບໍ່ໃຫ້ຜູ້ທີ່ບໍ່ແມ່ນລັດໃຊ້ເຄື່ອງມືດັ່ງກ່າວເປັນອາວຸດ. ທີ່ໄດ້ຮັບການຊ່ວຍເຫຼືອຈາກ AI ຈະບໍ່ເຄົາລົບຊາຍແດນແຫ່ງຊາດ. ນອກຈາກນັ້ນ, ຜູ້ຊ່ຽວຊານຊັ້ນນໍາແລະຜູ້ຊະນະ Turing Award ຈາກຕາເວັນຕົກແລະຈີນ ຄວາມກັງວົນວ່າລະບົບ AI ທີ່ມີຈຸດປະສົງທົ່ວໄປທີ່ກ້າວຫນ້າອາດຈະດໍາເນີນການຢູ່ນອກການຄວບຄຸມຂອງມະນຸດ, ເຊິ່ງກໍ່ໃຫ້ເກີດຄວາມສ່ຽງທີ່ຮ້າຍແຮງແລະເປັນອັນຕະລາຍ.
ທັງສອງລັດຖະບານໄດ້ຮັບຮູ້ບາງຄວາມສ່ຽງເຫຼົ່ານີ້ແລ້ວ. ຂອງປະທານາທິບໍດີ Trump ເຕືອນວ່າ AI ອາດຈະ “ກໍ່ໃຫ້ເກີດຄວາມສ່ຽງດ້ານຄວາມໝັ້ນຄົງແຫ່ງຊາດທີ່ເປັນນະວະນິຍາຍໃນອະນາຄົດອັນໃກ້ນີ້”, ໂດຍສະເພາະໃນຄວາມປອດໄພທາງໄຊເບີ ແລະ ໃນຂົງເຂດເຄມີ, ຊີວະພາບ, ລັງສີ, ແລະ ນິວເຄລຍ (CBRN). ເຊັ່ນດຽວກັນ, ໃນເດືອນກັນຍາປີກາຍນີ້, ອົງການມາດຕະຖານຄວາມປອດໄພ AI ຕົ້ນຕໍຂອງຈີນ ຄວາມຕ້ອງການສໍາລັບມາດຕະຖານຄວາມປອດໄພ AI ທີ່ແກ້ໄຂບັນຫາຄວາມປອດໄພທາງໄຊເບີ, CBRN, ແລະຄວາມສ່ຽງຕໍ່ການສູນເສຍການຄວບຄຸມ.
ຈາກນັ້ນ, ທັງສອງຝ່າຍສາມາດດໍາເນີນຂັ້ນຕອນພາກປະຕິບັດເພື່ອສ້າງຄວາມໄວ້ວາງໃຈດ້ານວິຊາການລະຫວ່າງອົງການຈັດຕັ້ງມາດຕະຖານຊັ້ນນໍາ — ເຊັ່ນ: ຄະນະກໍາມະການດ້ານວິຊາການມາດຕະຖານຄວາມປອດໄພຂໍ້ມູນແຫ່ງຊາດຂອງຈີນ () ແລະສະຖາບັນມາດຕະຖານແລະເຕັກໂນໂລຢີແຫ່ງຊາດຂອງອາເມລິກາ ()
ນອກຈາກນັ້ນ, ອໍານາດການປົກຄອງອຸດສາຫະກໍາ, ເຊັ່ນ: AI Industry Alliance of China (AIIA) ແລະ Frontier Model Forum ໃນສະຫະລັດ, ສາມາດແບ່ງປັນການປະຕິບັດທີ່ດີທີ່ສຸດກ່ຽວກັບຂອບເຂດການຄຸ້ມຄອງຄວາມສ່ຽງ. AIIA ໄດ້ສ້າງ “” ເຊິ່ງຜູ້ພັດທະນາຊັ້ນນໍາຂອງຈີນສ່ວນໃຫຍ່ໄດ້ລົງນາມ. ຈີນໃຫມ່ , ສຸມໃສ່ຄວາມສ່ຽງຊາຍແດນຢ່າງເຕັມສ່ວນລວມທັງການໃຊ້ໄຊເບີໃນທາງທີ່ຜິດ, ການໃຊ້ຊີວະພາບໃນທາງທີ່ຜິດ, ການຊັກຊວນແລະການຫມູນໃຊ້ຂະຫນາດໃຫຍ່, ແລະສະຖານະການສູນເສຍການຄວບຄຸມ, ໄດ້ຖືກຈັດພິມໃນລະຫວ່າງ ແລະສາມາດຊ່ວຍໃຫ້ທັງສອງປະເທດສອດຄ່ອງກັນ.
ໃນຂະນະທີ່ຄວາມໄວ້ວາງໃຈເລິກເຊິ່ງ, ລັດຖະບານແລະຫ້ອງທົດລອງຊັ້ນນໍາສາມາດເລີ່ມແບ່ງປັນວິທີການປະເມີນຄວາມປອດໄພແລະຜົນໄດ້ຮັບສໍາລັບຮູບແບບທີ່ກ້າວຫນ້າທີ່ສຸດ. ໄດ້ , ເປີດເຜີຍຢູ່ WAIC, ຮຽກຮ້ອງຢ່າງຊັດເຈນໃຫ້ສ້າງ “ເວທີການປະເມີນຄວາມປອດໄພທີ່ໄດ້ຮັບການຍອມຮັບເຊິ່ງກັນແລະກັນ.” ໃນຖານະເປັນຜູ້ຮ່ວມກໍ່ຕັ້ງ Anthropic , ການປະເມີນຄວາມປອດໄພ AI ຂອງຈີນທີ່ຜ່ານມາ ມີຜົນການຄົ້ນພົບທີ່ຄ້າຍຄືກັນກັບຕາເວັນຕົກ: ລະບົບ AI ຊາຍແດນກໍ່ໃຫ້ເກີດຄວາມສ່ຽງ CBRN ທີ່ບໍ່ແມ່ນເລັກນ້ອຍ, ແລະເລີ່ມສະແດງອາການເຕືອນໄພເບື້ອງຕົ້ນຂອງການຈໍາລອງແບບອັດຕະໂນມັດແລະການຫລອກລວງ. ຄວາມເຂົ້າໃຈຮ່ວມກັນກ່ຽວກັບຄວາມສ່ຽງຂອງຕົວແບບ — ແລະວິທີການທົດສອບຄວາມສ່ຽງເຫຼົ່ານັ້ນ — ຈະວາງພື້ນຖານສໍາລັບການຮ່ວມມືດ້ານຄວາມປອດໄພທີ່ກວ້າງຂວາງ.
ສຸດທ້າຍ, ທັງສອງຝ່າຍສາມາດສ້າງຕັ້ງຊ່ອງທາງການລາຍງານເຫດການແລະໂປໂຕຄອນການຕອບໂຕ້ສຸກເສີນ. ໃນກໍລະນີຂອງອຸປະຕິເຫດຫຼືການໃຊ້ AI ທີ່ກ່ຽວຂ້ອງກັບ AI, ການສື່ສານທີ່ວ່ອງໄວແລະໂປ່ງໃສຈະມີຄວາມຈໍາເປັນ. ທຽບເທົ່າທີ່ທັນສະໄຫມກັບ “ສາຍດ່ວນ” ລະຫວ່າງເຈົ້າຫນ້າທີ່ AI ຊັ້ນນໍາໃນທັງສອງປະເທດສາມາດຮັບປະກັນການແຈ້ງເຕືອນໃນເວລາຈິງເມື່ອຕົວແບບລະເມີດຂອບເຂດຄວາມປອດໄພຫຼືປະພຶດຕົວທີ່ບໍ່ຄາດຄິດ. ໃນເດືອນເມສາ, ປະທານປະເທດ Xi Jinping ຄວາມຕ້ອງການສໍາລັບ “ການຕິດຕາມກວດກາ, ການເຕືອນໄພຄວາມສ່ຽງໃນຕອນຕົ້ນແລະການຕອບໂຕ້ສຸກເສີນ” ໃນ AI. ຫຼັງຈາກເຫດການອັນຕະລາຍໃດໆ, ຄວນມີແຜນການທີ່ຕົກລົງກັນລ່ວງໜ້າກ່ຽວກັບວິທີການຕອບໂຕ້.
ການມີສ່ວນຮ່ວມຈະບໍ່ແມ່ນເລື່ອງງ່າຍ — ສິ່ງກີດຂວາງທາງດ້ານການເມືອງແລະດ້ານວິຊາການແມ່ນຫຼີກລ່ຽງບໍ່ໄດ້. ແຕ່ຄວາມສ່ຽງຂອງ AI ແມ່ນທົ່ວໂລກ — ແລະການຕອບໂຕ້ດ້ານການປົກຄອງຕ້ອງເປັນເຊັ່ນກັນ. ແທນທີ່ຈະໃຊ້ປະເທດຈີນເປັນເຫດຜົນສໍາລັບການບໍ່ມີການປະຕິບັດພາຍໃນປະເທດກ່ຽວກັບກົດລະບຽບ AI, ຜູ້ກໍານົດນະໂຍບາຍແລະຜູ້ນໍາອຸດສາຫະກໍາຂອງອາເມລິກາຄວນມີສ່ວນຮ່ວມໂດຍກົງ. ຄວາມສ່ຽງຂອງ AI ຈະບໍ່ລໍຖ້າ.
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.
“`
