
(SeaPRwire) – AI ສາມາດນໍາໃຊ້ເພື່ອເຮັດໃຫ້ລະບົບຍຸຕິທໍາທາງອາຍາມີຄວາມຍຸຕິທໍາ ແລະ ມີປະສິດທິພາບຫຼາຍຂຶ້ນໄດ້ບໍ, ຫຼື ມັນຈະເສີມສ້າງອະຄະຕິທີ່ເປັນອັນຕະລາຍເທົ່ານັ້ນ? ບັນດາຜູ້ຊ່ຽວຊານກ່າວວ່າ ມາຮອດປັດຈຸບັນມັນໄດ້ຖືກນໍາໃຊ້ໃນທາງທີ່ໜ້າເປັນຫ່ວງ—ແຕ່ມີທ່າແຮງສໍາລັບຜົນກະທົບໃນທາງບວກ.
ທຸກວັນນີ້, ເທັກໂນໂລຢີ AI ໄດ້ເຂົ້າເຖິງເກືອບທຸກດ້ານຂອງລະບົບຍຸຕິທໍາທາງອາຍາ. ມັນກໍາລັງຖືກນໍາໃຊ້ໃນລະບົບການຮູ້ຈໍາໃບໜ້າເພື່ອກໍານົດຕົວຜູ້ຕ້ອງສົງໄສ; ໃນຍຸດທະສາດ “ການຄາດຄະເນການປ້ອງກັນ” ເພື່ອສ້າງເສັ້ນທາງການລາດຕະເວນ; ໃນຫ້ອງສານເພື່ອຊ່ວຍໃນການຄຸ້ມຄອງຄະດີ; ແລະໂດຍທະນາຍຄວາມສາທາລະນະເພື່ອຄັດເລືອກຫຼັກຖານ. ແຕ່ໃນຂະນະທີ່ຜູ້ສະໜັບສະໜູນຊີ້ໃຫ້ເຫັນເຖິງການເພີ່ມຂຶ້ນຂອງປະສິດທິພາບ ແລະ ຄວາມຍຸຕິທໍາ, ບັນດານັກວິຈານກໍຍົກຄໍາຖາມທີ່ຮ້າຍແຮງກ່ຽວກັບຄວາມເປັນສ່ວນຕົວ ແລະ ຄວາມຮັບຜິດຊອບ.
ເມື່ອເດືອນຜ່ານມາ, The Council on Criminal Justice ໄດ້ເປີດຕົວໜ່ວຍງານບໍ່ມີສ່ວນຮ່ວມພັກຝ່າຍກ່ຽວກັບ AI, ເພື່ອສຶກສາວ່າ AI ສາມາດນໍາໃຊ້ໃນລະບົບຍຸຕິທໍາທາງອາຍາໄດ້ຢ່າງປອດໄພ ແລະ ມີຈັນຍາບັນແນວໃດ. ວຽກງານຂອງກຸ່ມດັ່ງກ່າວຈະໄດ້ຮັບການສະໜັບສະໜູນຈາກນັກຄົ້ນຄວ້າທີ່ RAND, ແລະໃນທີ່ສຸດພວກເຂົາຈະນໍາເອົາຜົນການຄົ້ນພົບຂອງພວກເຂົາ ແລະ ສະເໜີຄໍາແນະນໍາຕໍ່ຜູ້ວາງນະໂຍບາຍ ແລະ ໜ່ວຍງານບັງຄັບໃຊ້ກົດໝາຍ.
“ບໍ່ຕ້ອງສົງໄສເລີຍວ່າ AI ສາມາດໃຫ້ຜົນໄດ້ຮັບທີ່ບໍ່ຍຸຕິທໍາ,” Nathan Hecht, ປະທານຄະນະປະຕິບັດງານ ແລະ ອະດີດຫົວໜ້າຜູ້ພິພາກສາສູງສຸດຂອງລັດ Texas ກ່າວ. “ຄະນະປະຕິບັດງານນີ້ຕ້ອງການນໍາເອົາຜູ້ຄົນດ້ານເທັກໂນໂລຢີ, ຜູ້ຄົນດ້ານຍຸຕິທໍາທາງອາຍາ, ຜູ້ຄົນໃນຊຸມຊົນ, ຜູ້ຊ່ຽວຊານໃນຂົງເຂດຕ່າງໆ, ມາຮ່ວມກັນ ແລະ ນັ່ງລົງເພື່ອເບິ່ງວ່າພວກເຮົາຈະນໍາໃຊ້ມັນແນວໃດເພື່ອເຮັດໃຫ້ລະບົບດີຂຶ້ນ ແລະ ບໍ່ກໍ່ໃຫ້ເກີດຄວາມເສຍຫາຍທີ່ມັນສາມາດເຮັດໄດ້.”
ຄວາມສ່ຽງຂອງ AI ໃນການບັງຄັບໃຊ້ກົດໝາຍ
ສານ ແລະ ກົມຕໍາຫຼວດຫຼາຍແຫ່ງກໍາລັງນໍາໃຊ້ AI ແລ້ວ, Hecht ກ່າວ. “ມັນເປັນສິ່ງທີ່ກະຈັດກະຈາຍຫຼາຍ: ຄົນທີ່ຢາກຮູ້ຢາກເຫັນເວົ້າວ່າ, ‘ໂອ້, ມີ AI ຢູ່ບ່ອນນີ້, ພວກເຮົາສາມາດນໍາມັນໄປໃຊ້ໃນສານອາຍາໄດ້.’”
ແຕ່ເນື່ອງຈາກມີມາດຕະຖານໜ້ອຍສໍາລັບການນໍາໃຊ້ AI, ອົງການເຝົ້າລະວັງສິດທິພົນລະເມືອງຈຶ່ງມີຄວາມກັງວົນວ່າອົງການບັງຄັບໃຊ້ກົດໝາຍກໍາລັງນໍາໃຊ້ມັນໃນທາງທີ່ອັນຕະລາຍ. ອົງການຫຼາຍພັນແຫ່ງໄດ້ເພິ່ງພາເທັກໂນໂລຢີການຮູ້ຈໍາໃບໜ້າທີ່ຂາຍໂດຍບໍລິສັດຕ່າງໆເຊັ່ນ Clearview, ເຊິ່ງເປັນເຈົ້າພາບຖານຂໍ້ມູນຂອງຮູບພາບຫຼາຍພັນລ້ານຮູບທີ່ຖືກເກັບມາຈາກອິນເຕີເນັດ. ໃນຖານຂໍ້ມູນຈໍານວນຫຼາຍ, ຄົນຜິວດໍາຖືກເປັນຕົວແທນຫຼາຍເກີນໄປ, ສ່ວນໜຶ່ງແມ່ນຍ້ອນພວກເຂົາອາໄສຢູ່ໃນຊຸມຊົນທີ່ຖືກປ້ອງກັນຫຼາຍເກີນໄປ. ເທັກໂນໂລຢີ AI ຍັງມີຄວາມແມ່ນຍໍາໜ້ອຍໃນການແຍກແຍະຄວາມແຕກຕ່າງໃນໃບໜ້າຂອງຄົນຜິວດໍາ, ເຊິ່ງສາມາດນໍາໄປສູ່ອັດຕາການລະບຸຕົວຜິດທີ່ສູງຂຶ້ນ.
ປີຜ່ານມາ, The Innocence Project, ເຊິ່ງເປັນອົງການບໍ່ຫວັງຜົນກໍາໄລດ້ານກົດໝາຍ, ໄດ້ລາຍງານວ່າມີການຈັບກຸມຜິດຢ່າງໜ້ອຍ 7 ຄັ້ງຈາກເທັກໂນໂລຢີການຮູ້ຈໍາໃບໜ້າ, ໃນນັ້ນ 6 ຄັ້ງແມ່ນກ່ຽວຂ້ອງກັບຄົນຜິວດໍາທີ່ຖືກກ່າວຫາຢ່າງຜິດໆ. Walter Katz, ຜູ້ອໍານວຍການດ້ານນະໂຍບາຍຂອງອົງການດັ່ງກ່າວ, ກ່າວວ່າບາງຄັ້ງຕໍາຫຼວດຈັບກຸມໂດຍອີງໃສ່ຜົນການຮູ້ຈໍາໃບໜ້າຂອງ AI ພຽງຢ່າງດຽວ ແທນທີ່ຈະໃຫ້ AI ເປັນຈຸດເລີ່ມຕົ້ນສໍາລັບການສືບສວນຂະໜາດໃຫຍ່. “ມີການເພິ່ງພາຜົນຜະລິດຂອງ AI ຫຼາຍເກີນໄປ,” ລາວກ່າວ.
Katz ກ່າວວ່າເມື່ອລາວໄປຮ່ວມກອງປະຊຸມກ່ຽວກັບການປ້ອງກັນໃນລະດູໃບໄມ້ຫຼົ່ນທີ່ຜ່ານມາ, “ມັນແມ່ນ AI ຢູ່ທຸກບ່ອນ.” ຜູ້ຂາຍກໍາລັງຂາຍເຄື່ອງມືເທັກໂນໂລຢີຢ່າງຮຸນແຮງທີ່ອ້າງວ່າສາມາດແກ້ໄຂບັນຫາທີ່ແທ້ຈິງໃນກົມຕໍາຫຼວດ. “ແຕ່ໃນການສະເໜີຂາຍນັ້ນ, ມີຄວາມສົນໃຈໜ້ອຍຕໍ່ຂໍ້ແລກປ່ຽນ ຫຼື ຄວາມສ່ຽງໃດໆ,” ລາວກ່າວ. ຕົວຢ່າງ, ບັນດານັກວິຈານກັງວົນວ່າເຄື່ອງມື AI ເຫຼົ່ານີ້ຫຼາຍອັນຈະເພີ່ມການສອດແນມພື້ນທີ່ສາທາລະນະ, ລວມທັງການຕິດຕາມຜູ້ປະທ້ວງຢ່າງສັນຕິ—ຫຼືວ່າ “ການປ້ອງກັນການຄາດຄະເນ” ຈະເພີ່ມຄວາມຮຸນແຮງຂອງການປາບປາມຂອງໜ່ວຍງານບັງຄັບໃຊ້ກົດໝາຍໃນພື້ນທີ່ທີ່ຖືກປ້ອງກັນຫຼາຍເກີນໄປ.
ບ່ອນທີ່ AI ສາມາດຊ່ວຍໄດ້
ຢ່າງໃດກໍຕາມ, Katz ຍອມຮັບວ່າ AI ມີບົດບາດໃນລະບົບຍຸຕິທໍາທາງອາຍາ. “ມັນຈະຍາກຫຼາຍທີ່ຈະຫວັງໃຫ້ AI ຫາຍໄປ—ແລະມີບ່ອນທີ່ AI ສາມາດຊ່ວຍໄດ້,” ລາວກ່າວ. ດ້ວຍເຫດຜົນນັ້ນ, ລາວໄດ້ເຂົ້າຮ່ວມຄະນະປະຕິບັດງານ AI ຂອງ The Council on Criminal Justice. “ສິ່ງສໍາຄັນອັນດັບທໍາອິດແມ່ນການເຂົ້າໃຈວ່າການນໍາໃຊ້ເກີດຂຶ້ນໄວພຽງໃດ. ແລະຖ້າທຸກຄົນມາຈາກຄວາມເຂົ້າໃຈວ່າການບໍ່ມີນະໂຍບາຍໃດໆເລີຍອາດຈະເປັນສິ່ງທີ່ຜິດ, ແລ້ວພວກເຮົາກໍຈະສ້າງສິ່ງນັ້ນຂຶ້ນມາ.”
Hecht, ປະທານຄະນະປະຕິບັດງານ, ເຫັນຫຼາຍຂົງເຂດທີ່ AI ສາມາດຊ່ວຍໄດ້ໃນຫ້ອງສານ, ຕົວຢ່າງ, ລວມທັງການປັບປຸງຂັ້ນຕອນການຮັບຕົວຜູ້ຖືກຈັບ, ຫຼື ຊ່ວຍກໍານົດວ່າໃຜມີຄຸນສົມບັດສໍາລັບໂຄງການປ່ຽນເສັ້ນທາງ, ເຊິ່ງອະນຸຍາດໃຫ້ຜູ້ກະທໍາຜິດຫຼີກລ້ຽງການຕັດສິນລົງໂທດ. ລາວຍັງຫວັງວ່າຄະນະປະຕິບັດງານຈະສະເໜີຄໍາແນະນໍາກ່ຽວກັບປະເພດການນໍາໃຊ້ AI ທີ່ບໍ່ຄວນຖືກອະນຸມັດຢ່າງຊັດເຈນໃນລະບົບຍຸຕິທໍາທາງອາຍາ, ແລະ ຂັ້ນຕອນເພື່ອຮັກສາຄວາມເປັນສ່ວນຕົວຂອງສາທາລະນະ. “ພວກເຮົາຕ້ອງການພະຍາຍາມລວບລວມຄວາມຊ່ຽວຊານທີ່ຈໍາເປັນເພື່ອໃຫ້ຜູ້ໃຊ້ຜະລິດຕະພັນ ແລະ ສາທາລະນະໝັ້ນໃຈວ່າສິ່ງນີ້ຈະເຮັດໃຫ້ປະສົບການຂອງທ່ານກັບລະບົບຍຸຕິທໍາທາງອາຍາດີຂຶ້ນ—ແລະຫຼັງຈາກນັ້ນ, ມັນຈະປ່ອຍທ່ານໄວ້,” ລາວກ່າວ.
ໃນຂະນະດຽວກັນ, ຄວາມພະຍາຍາມອິດສະຫຼະອື່ນໆອີກຫຼາຍຢ່າງກໍາລັງພະຍາຍາມນໍາໃຊ້ AI ເພື່ອປັບປຸງຂະບວນການຍຸຕິທໍາ. Startup ແຫ່ງໜຶ່ງ, JusticeText, ຫວັງວ່າຈະນໍາໃຊ້ AI ເພື່ອຫຼຸດຜ່ອນຊ່ອງຫວ່າງລະຫວ່າງຊັບພະຍາກອນຂອງໄອຍະການ ແລະ ທະນາຍຄວາມສາທາລະນະ, ເຊິ່ງຝ່າຍຫຼັງມັກຈະຂາດແຄນພະນັກງານ ແລະ ຊັບພະຍາກອນຢ່າງຮຸນແຮງ. JusticeText ໄດ້ສ້າງເຄື່ອງມືສໍາລັບທະນາຍຄວາມສາທາລະນະທີ່ຄັດເລືອກຜ່ານຊົ່ວໂມງຂອງການໂທ 911, ວິດີໂອກ້ອງຕິດຕົວຕໍາຫຼວດ, ແລະ ການສອບສວນທີ່ບັນທຶກໄວ້, ເພື່ອວິເຄາະ ແລະ ກໍານົດວ່າ, ຕົວຢ່າງ, ຕໍາຫຼວດໄດ້ໃຫ້ຖະແຫຼງການທີ່ບໍ່ສອດຄ່ອງກັນ ຫຼື ຖາມຄໍາຖາມຊັກນໍາບໍ.
“ພວກເຮົາຕ້ອງການເບິ່ງຢ່າງແທ້ຈິງວ່າມັນເປັນແນວໃດທີ່ຈະເປັນຜູ້ປ້ອງກັນສາທາລະນະກ່ອນ, ແລະ ພະຍາຍາມສ້າງຄວາມສະເໝີພາບໃນສະໜາມແຂ່ງຂັນທີ່ເທັກໂນໂລຢີໄດ້ເຮັດໃຫ້ຮ້າຍແຮງຂຶ້ນໃນຫຼາຍປີທີ່ຜ່ານມາ,” Devshi Mehrotra, ຜູ້ກໍ່ຕັ້ງ ແລະ CEO ກ່າວ. JusticeText ກໍາລັງເຮັດວຽກຮ່ວມກັບອົງການປ້ອງກັນສາທາລະນະປະມານ 75 ແຫ່ງທົ່ວປະເທດ.
Recidiviz, ອົງການບໍ່ຫວັງຜົນກໍາໄລປະຕິຮູບຍຸຕິທໍາທາງອາຍາ, ຍັງໄດ້ທົດລອງຫຼາຍວິທີໃນການລວມ AI ເຂົ້າໃນຂະບວນການເຮັດວຽກຂອງພວກເຂົາ, ລວມທັງການໃຫ້ບົດສະຫຼຸບທີ່ສ້າງໂດຍ AI ແກ່ເຈົ້າໜ້າທີ່ຄຸມປະພຶດຂອງລູກຄວາມ. “ທ່ານອາດຈະມີບັນທຶກຄະດີ 80 ໜ້າທີ່ກັບຄືນໄປເຈັດປີກ່ຽວກັບຄົນຜູ້ນີ້ທີ່ທ່ານຈະບໍ່ອ່ານຖ້າທ່ານມີຄະດີ 150 ຄົນ, ແລະ ທ່ານຕ້ອງເຫັນພວກເຂົາແຕ່ລະຄົນທຸກເດືອນ,” Andrew Warren, ຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Recidiviz ກ່າວ. “AI ສາມາດໃຫ້ຈຸດເດັ່ນທີ່ກະທັດຮັດຫຼາຍວ່າຄົນຜູ້ນີ້ໄດ້ບັນລຸສິ່ງໃດແດ່ແລ້ວ ແລະ ພວກເຂົາຕ້ອງການການສະໜັບສະໜູນໃນສິ່ງໃດ.”
ສິ່ງທ້າທາຍສໍາລັບຜູ້ວາງນະໂຍບາຍ ແລະ ຄະນະປະຕິບັດງານຂອງ The Council on Criminal Justice, ດັ່ງນັ້ນ, ແມ່ນການກໍານົດວິທີການພັດທະນາມາດຕະຖານ ແລະ ກົນໄກການກວດສອບເພື່ອໃຫ້ຜົນດີຈາກການເພີ່ມປະສິດທິພາບຂອງ AI ມີນໍ້າໜັກຫຼາຍກວ່າຄວາມສາມາດຂອງມັນໃນການເພີ່ມທະວີອະຄະຕິທີ່ມີຢູ່ແລ້ວ. Hecht, ຢູ່ທີ່ຄະນະປະຕິບັດງານ, ຍັງຫວັງທີ່ຈະປ້ອງກັນຈາກອະນາຄົດທີ່ AI ແບບ “black box” ຈະຕັດສິນໃຈທີ່ປ່ຽນແປງຊີວິດດ້ວຍຕົວເອງ.
“ພວກເຮົາຄວນຮັບປະກັນວ່າແນວຄິດແບບດັ້ງເດີມຂອງຄວາມຍຸຕິທໍາຂອງມະນຸດໄດ້ຮັບການປົກປ້ອງບໍ? ແນ່ນອນ. ພວກເຮົາຄວນຮັບປະກັນວ່າຜູ້ພິພາກສາທີ່ມີຄວາມສາມາດ ແລະ ຜູ້ຈັດການລະບົບຍຸຕິທໍາທາງອາຍາຄວບຄຸມທັງໝົດບໍ? ແນ່ນອນ,” ລາວກ່າວ. “ແຕ່ການເວົ້າວ່າພວກເຮົາຈະຮັກສາ AI ໄວ້ບໍ່ໃຫ້ເຂົ້າສູ່ລະບົບຍຸຕິທໍາແມ່ນເປັນໄປບໍ່ໄດ້. ບໍລິສັດກົດໝາຍກໍາລັງນໍາໃຊ້ມັນ. ລະບົບຍຸຕິທໍາພົນລະເຮືອນກໍາລັງນໍາໃຊ້ມັນ. ມັນຈະຢູ່ທີ່ນີ້ຕະຫຼອດໄປ.”
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.
