ສົງຄາມຂອງ algorithms
ເນື້ອໃນ
ໃນເວລາທີ່ມັນມາກັບການນໍາໃຊ້ປັນຍາປະດິດໃນການທະຫານ, ຄວາມຝັນຮ້າຍຂອງ fiction ວິທະຍາສາດໄດ້ຕື່ນຂຶ້ນທັນທີ, AI ທີ່ກະບົດແລະຕາຍທີ່ລຸກຂຶ້ນຕໍ່ຕ້ານມະນຸດເພື່ອທໍາລາຍມັນ. ແຕ່ຫນ້າເສຍດາຍ, ຄວາມຢ້ານກົວຂອງທະຫານແລະຜູ້ນໍາທີ່ "ສັດຕູຈະຕິດຕາມພວກເຮົາ" ແມ່ນມີຄວາມເຂັ້ມແຂງໃນການພັດທະນາສູດການຄິດໄລ່ສົງຄາມ.
ສົງຄາມສູດການຄິດໄລ່ອີງຕາມການຫຼາຍຄົນ, ໂດຍພື້ນຖານສາມາດປ່ຽນຫນ້າຂອງສະຫນາມຮົບດັ່ງທີ່ພວກເຮົາຮູ້ຈັກມັນ, ສ່ວນໃຫຍ່ແມ່ນເນື່ອງຈາກວ່າການສູ້ຮົບຈະໄວຂຶ້ນ, ໄກກວ່າຄວາມສາມາດຂອງປະຊາຊົນໃນການຕັດສິນໃຈ. ນາຍພົນອາເມລິກາ Jack Shanahan (1), ຫົວຫນ້າສູນລວມຂອງສະຫະລັດສໍາລັບປັນຍາປະດິດ, ເນັ້ນຫນັກວ່າ, ແນວໃດກໍ່ຕາມ, ກ່ອນທີ່ຈະນໍາປັນຍາປະດິດເຂົ້າໄປໃນສານຫນູ, ພວກເຮົາຕ້ອງຮັບປະກັນວ່າລະບົບເຫຼົ່ານີ້ຍັງຢູ່ພາຍໃຕ້ການຄວບຄຸມຂອງມະນຸດແລະບໍ່ໄດ້ເລີ່ມຕົ້ນສົງຄາມດ້ວຍຕົນເອງ.
"ຖ້າສັດຕູມີເຄື່ອງຈັກແລະລະບົບວິທີ, ພວກເຮົາຈະສູນເສຍຄວາມຂັດແຍ້ງນີ້."
ຄວາມສາມາດໃນການຂັບລົດ ສົງຄາມ algorithmic ແມ່ນອີງໃສ່ການນໍາໃຊ້ຄວາມກ້າວຫນ້າຂອງເຕັກໂນໂລຊີຄອມພິວເຕີໃນສາມຂົງເຂດຕົ້ນຕໍ. ທໍາອິດ ທົດສະວັດຂອງການຂະຫຍາຍຕົວຂອງ exponential ໃນພະລັງງານຄອມພິວເຕີອັນນີ້ໄດ້ປັບປຸງປະສິດທິພາບຂອງການຮຽນຮູ້ເຄື່ອງຈັກ. ທີສອງ ການຂະຫຍາຍຕົວຢ່າງໄວວາຂອງຊັບພະຍາກອນ "ຂໍ້ມູນໃຫຍ່", ນັ້ນແມ່ນ, ຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່, ປົກກະຕິແລ້ວອັດຕະໂນມັດ, ການຄຸ້ມຄອງແລະສ້າງຢ່າງຕໍ່ເນື່ອງທີ່ເຫມາະສົມກັບການຮຽນຮູ້ເຄື່ອງຈັກ. ຄວາມກັງວົນທີສາມ ການພັດທະນາຢ່າງໄວວາຂອງເຕັກໂນໂລຊີຄອມພິວເຕີ້ຟັງ, ໂດຍຜ່ານທີ່ຄອມພິວເຕີສາມາດເຂົ້າເຖິງຊັບພະຍາກອນຂໍ້ມູນໄດ້ຢ່າງງ່າຍດາຍແລະປຸງແຕ່ງໃຫ້ເຂົາເຈົ້າແກ້ໄຂບັນຫາ.
ສູດການຄິດໄລ່ສົງຄາມຕາມທີ່ໄດ້ກໍານົດໂດຍຜູ້ຊ່ຽວຊານ, ມັນທໍາອິດຕ້ອງໄດ້ຮັບການສະແດງອອກ ລະຫັດຄອມພິວເຕີ. ອັນທີສອງ, ມັນຕ້ອງເປັນຜົນມາຈາກເວທີທີ່ມີຄວາມສາມາດໃນການເກັບກໍາຂໍ້ມູນແລະການເລືອກ, ການຕັດສິນໃຈທີ່ຢ່າງຫນ້ອຍໃນທາງທິດສະດີ, ບໍ່ຕ້ອງການ. ການແຊກແຊງຂອງມະນຸດ. ອັນທີສາມ, ເຊິ່ງເບິ່ງຄືວ່າຈະແຈ້ງ, ແຕ່ບໍ່ຈໍາເປັນ, ສໍາລັບການດໍາເນີນການພຽງແຕ່ວ່າມັນຈະກາຍເປັນທີ່ຊັດເຈນວ່າເຕັກນິກທີ່ມີຈຸດປະສົງສໍາລັບບາງສິ່ງບາງຢ່າງອື່ນສາມາດເປັນປະໂຫຍດໃນສົງຄາມແລະໃນທາງກັບກັນ, ມັນຕ້ອງສາມາດເຮັດວຽກຢູ່ໃນເງື່ອນໄຂ. ການປະທະກັນປະກອບອາວຸດ.
ການວິເຄາະທິດທາງຂ້າງເທິງແລະການໂຕ້ຕອບຂອງພວກເຂົາສະແດງໃຫ້ເຫັນວ່າ ສົງຄາມ algorithmic ມັນບໍ່ແມ່ນເຕັກໂນໂລຊີແຍກຕ່າງຫາກເຊັ່ນ, ສໍາລັບການຍົກຕົວຢ່າງ. ອາວຸດພະລັງງານ ຫຼື ລູກສອນໄຟຄວາມໄວສູງ. ຜົນກະທົບຂອງມັນແມ່ນກວ້າງຂວາງແລະຄ່ອຍໆກາຍເປັນຢູ່ທົ່ວທຸກແຫ່ງໃນການປະທະກັນ. ເປັນຄັ້ງທໍາອິດ ພາຫະນະການທະຫານ ພວກເຂົາເຈົ້າກາຍເປັນອັດສະລິຍະ, ມີຄວາມສາມາດເຮັດໃຫ້ກໍາລັງປ້ອງກັນປະເທດທີ່ປະຕິບັດໃຫ້ມີປະສິດທິພາບແລະປະສິດທິຜົນ. ເຄື່ອງຈັກອັດສະລິຍະດັ່ງກ່າວມີຂໍ້ຈໍາກັດທີ່ຊັດເຈນທີ່ຕ້ອງໄດ້ຮັບການເຂົ້າໃຈດີ.
"" Shanahan ກ່າວໃນລຶະເບິ່ງໃບໄມ້ລ່ວງທີ່ຜ່ານມາໃນການສໍາພາດກັບອະດີດ CEO ຂອງ Google Eric Schmidt ແລະຮອງປະທານຝ່າຍຕ່າງປະເທດຂອງ Google Kent Walker. "".
ຮ່າງບົດລາຍງານຂອງສະພາຄວາມໝັ້ນຄົງແຫ່ງຊາດອາເມລິກາກ່ຽວກັບ AI ໄດ້ອ້າງເຖິງຈີນຫຼາຍກວ່າ 50 ຄັ້ງ, ໄດ້ຍົກໃຫ້ເຫັນເປົ້າໝາຍຢ່າງເປັນທາງການຂອງຈີນທີ່ຈະກາຍເປັນຜູ້ນຳດ້ານ AI ຂອງໂລກໃນປີ 2030.ເບິ່ງ: ).
ຄໍາເວົ້າເຫຼົ່ານີ້ໄດ້ຖືກເວົ້າໃນວໍຊິງຕັນໃນກອງປະຊຸມພິເສດທີ່ໄດ້ຈັດຂຶ້ນຫຼັງຈາກສູນ Shanakhan ໄດ້ກ່າວມາຂ້າງເທິງໄດ້ນໍາສະເຫນີບົດລາຍງານເບື້ອງຕົ້ນຂອງຕົນຕໍ່ກອງປະຊຸມ, ກະກຽມໃນການຮ່ວມມືກັບຜູ້ຊ່ຽວຊານທີ່ມີຊື່ສຽງໃນຂົງເຂດປັນຍາປະດິດ, ລວມທັງຜູ້ອໍານວຍການຄົ້ນຄ້ວາ Microsoft Eric Horwitz, CEO AWS Andy Jassa ແລະ. ນັກຄົ້ນຄວ້າຫຼັກຂອງ Google Cloud ທ່ານ Andrew Moore. ບົດລາຍງານສຸດທ້າຍຈະຖືກເຜີຍແຜ່ໃນເດືອນຕຸລາ 2020.
ພະນັກງານ Google ປະທ້ວງ
ສອງສາມປີກ່ອນ, Pentagon ໄດ້ມີສ່ວນຮ່ວມ. ສົງຄາມ algorithmic ແລະຫຼາຍໆໂຄງການທີ່ກ່ຽວຂ້ອງກັບ AI ພາຍໃຕ້ໂຄງການ Maven, ອີງໃສ່ການຮ່ວມມືກັບບໍລິສັດເຕັກໂນໂລຢີ, ລວມທັງ Google ແລະ startups ເຊັ່ນ Clarifai. ມັນສ່ວນໃຫຍ່ແມ່ນກ່ຽວກັບການເຮັດວຽກ ປັນຍາປະດິດເພື່ອອໍານວຍຄວາມສະດວກໃນການກໍານົດວັດຖຸ.
ໃນເວລາທີ່ມັນໄດ້ກາຍເປັນທີ່ຮູ້ຈັກກ່ຽວກັບການເຂົ້າຮ່ວມຂອງ Google ໃນໂຄງການໃນພາກຮຽນ spring ຂອງ 2018, ຫລາຍພັນຄົນຂອງພະນັກງານຂອງຍັກໃຫຍ່ Mountain View ໄດ້ລົງນາມໃນຈົດຫມາຍເປີດປະທ້ວງຕໍ່ຕ້ານການມີສ່ວນຮ່ວມຂອງບໍລິສັດໃນ hostilities. ຫຼັງຈາກເດືອນຂອງຄວາມບໍ່ສະຫງົບແຮງງານ Google ໄດ້ຮັບຮອງເອົາກົດລະບຽບຂອງຕົນເອງສໍາລັບ AIເຊິ່ງລວມເຖິງການຫ້າມເຂົ້າຮ່ວມກິດຈະກຳຕ່າງໆ.
ກູໂກຍັງໄດ້ໃຫ້ຄໍາຫມັ້ນສັນຍາທີ່ຈະສໍາເລັດສັນຍາໂຄງການ Maven ໃນທ້າຍປີ 2019. ການອອກຂອງ Google ບໍ່ໄດ້ສິ້ນສຸດໂຄງການ Maven. ມັນຖືກຊື້ໂດຍ Palantir ຂອງ Peter Thiel. ກອງທັບອາກາດ ແລະກອງທັບເຮືອສະຫະລັດ ວາງແຜນທີ່ຈະນຳໃຊ້ເຮືອບິນບໍ່ມີຄົນຂັບພິເສດ ເຊັ່ນ Global Hawk ເປັນສ່ວນຫນຶ່ງຂອງໂຄງການ Maven, ເຊິ່ງແຕ່ລະບ່ອນຄາດວ່າຈະສາມາດຕິດຕາມພາບໄດ້ເຖິງ 100 ຕາລາງກິໂລແມັດ.
ໃນໂອກາດຂອງສິ່ງທີ່ເກີດຂຶ້ນປະມານໂຄງການ Maven, ມັນໄດ້ກາຍເປັນທີ່ຊັດເຈນວ່າກອງທັບສະຫະລັດຕ້ອງການຄວາມຮີບດ່ວນຂອງເມຄຂອງຕົນເອງ. ນີ້ແມ່ນສິ່ງທີ່ Shanahan ກ່າວໃນກອງປະຊຸມ. ນີ້ແມ່ນເຫັນໄດ້ຊັດເຈນເມື່ອວິດີໂອວິດີໂອແລະການປັບປຸງລະບົບຕ້ອງໄດ້ຮັບການຂົນສົ່ງໄປຫາການຕິດຕັ້ງທະຫານທີ່ກະແຈກກະຈາຍໄປທົ່ວພາກສະຫນາມ. ຢູ່ໃນອາຄານ ຄອມພິວເຕີຄລາວລວມ, ເຊິ່ງຈະຊ່ວຍແກ້ໄຂບັນຫາຂອງປະເພດນີ້, ເປັນສ່ວນຫນຶ່ງຂອງໂຄງການພື້ນຖານໂຄງລ່າງ IT ທີ່ເປັນເອກະພາບສໍາລັບກອງທັບ Jedi, Microsoft, Amazon, Oracle ແລະ IBM. Google ບໍ່ແມ່ນຍ້ອນລະຫັດຈັນຍາບັນຂອງພວກເຂົາ.
ມັນເປັນທີ່ຊັດເຈນຈາກຄໍາເວົ້າຂອງ Shanahan ວ່າການປະຕິວັດ AI ທີ່ຍິ່ງໃຫຍ່ຢູ່ໃນກອງທັບແມ່ນພຽງແຕ່ເລີ່ມຕົ້ນເທົ່ານັ້ນ. ແລະບົດບາດຂອງສູນກາງຂອງຕົນໃນກອງກຳລັງປະກອບອາວຸດຂອງອາເມລິກາພວມເຕີບໂຕ. ນີ້ແມ່ນເຫັນໄດ້ຊັດເຈນຢູ່ໃນງົບປະມານ JAIC ຄາດຄະເນ. ໃນປີ 2019, ຍອດມູນຄ່າດັ່ງກ່າວມີເຖິງ 90 ລ້ານໂດລາສະຫະລັດ. ໃນປີ 2020, ມັນຄວນຈະເປັນ $414 ລ້ານແລ້ວ, ຫຼືປະມານ 10 ເປີເຊັນຂອງງົບປະມານ AI $4 ຕື້ຂອງ Pentagon.
ເຄື່ອງຈັກຮັບຮູ້ທະຫານທີ່ຍອມຈໍານົນ
ກອງທັບສະຫະລັດມີລະບົບຕ່າງໆແລ້ວເຊັ່ນ: ຍົນຮົບ Phalanx (2) ເຊິ່ງເປັນອາວຸດຍຸດໂທປະກອນທີ່ໃຊ້ໃນກຳປັ່ນຂອງກອງທັບເຮືອສະຫະລັດ ເພື່ອໂຈມຕີລູກສອນໄຟທີ່ເຂົ້າມາ. ເມື່ອກວດພົບລູກສອນໄຟ, ມັນຈະເປີດອັດຕະໂນມັດແລະທໍາລາຍທຸກສິ່ງທຸກຢ່າງທີ່ຢູ່ໃນເສັ້ນທາງຂອງມັນ. ອີງຕາມການ Ford, ລາວສາມາດໂຈມຕີດ້ວຍລູກສອນໄຟສີ່ຫຼືຫ້າລູກໃນເວລາເຄິ່ງວິນາທີໂດຍບໍ່ຈໍາເປັນຕ້ອງຜ່ານແລະເບິ່ງແຕ່ລະເປົ້າຫມາຍ.
ຕົວຢ່າງອີກອັນຫນຶ່ງແມ່ນ Harpy ເຄິ່ງເອກະລາດ (3), ລະບົບການຄ້າທີ່ບໍ່ມີຄົນຂັບ. harpy ໄດ້ຖືກນໍາໃຊ້ເພື່ອທໍາລາຍ radars enemy. ຕົວຢ່າງເຊັ່ນ, ໃນປີ 2003, ເມື່ອສະຫະລັດໄດ້ໂຈມຕີອີຣັກທີ່ມີລະບົບສະກັດກັ້ນ radar ທາງອາກາດ, drones ທີ່ຜະລິດໂດຍ Israel ໄດ້ຊ່ວຍຊອກຫາແລະທໍາລາຍມັນເພື່ອໃຫ້ຊາວອາເມລິກາສາມາດບິນເຂົ້າໄປໃນເຂດນ່ານຟ້າຂອງອີຣັກໄດ້ຢ່າງປອດໄພ.
3. ການເປີດຕົວ drone ຂອງລະບົບ IAI Harpy
ຕົວຢ່າງອີກອັນຫນຶ່ງທີ່ມີຊື່ສຽງຂອງອາວຸດເອກະລາດແມ່ນ ລະບົບ Samsung SGR-1 ພາສາເກົາຫຼີເຊິ່ງຕັ້ງຢູ່ໃນເຂດປອດທະຫານລະຫວ່າງເກົາຫລີເໜືອ ແລະເກົາຫລີໃຕ້, ໄດ້ອອກແບບເພື່ອກຳນົດຕົວ ແລະ ຍິງພວກບຸກໂຈມຕີຢູ່ໃນໄລຍະຫ່າງເຖິງ XNUMX ກິໂລແມັດ. ອີງຕາມຄໍາອະທິບາຍ, ລະບົບ "ສາມາດຈໍາແນກລະຫວ່າງຜູ້ທີ່ຍອມຈໍານົນແລະຜູ້ທີ່ບໍ່ຍອມຈໍານົນ" ໂດຍອີງໃສ່ຕໍາແຫນ່ງຂອງມືຂອງເຂົາເຈົ້າຫຼືການຮັບຮູ້ຕໍາແຫນ່ງຂອງອາວຸດຢູ່ໃນມືຂອງເຂົາເຈົ້າ.
4. ການສາທິດການກວດພົບທະຫານທີ່ຍອມຈຳນົນໂດຍລະບົບ Samsung SGR-1
ຊາວອາເມຣິກັນຢ້ານວ່າຈະຖືກປະໄວ້
ປະຈຸບັນ, ມີຢ່າງໜ້ອຍ 30 ປະເທດໃນທົ່ວໂລກໄດ້ນຳໃຊ້ອາວຸດອັດຕະໂນມັດທີ່ມີລະດັບການພັດທະນາແລະການນຳໃຊ້ AI ທີ່ແຕກຕ່າງກັນ. ຈີນ, ຣັດເຊຍແລະອາເມລິກາເຫັນວ່າປັນຍາປະດິດເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້ໃນການສ້າງຖານະທີ່ເປັນອະນາຄົດຂອງຕົນໃນໂລກ. ປະທານາທິບໍດີຣັດເຊຍທ່ານ Vladimir Putin ກ່າວຕໍ່ນັກຮຽນໃນເດືອນສິງຫາ 2017 ວ່າ "ຜູ້ໃດຊະນະການແຂ່ງຂັນ AI ຈະປົກຄອງໂລກ." ທ່ານສີຈິ້ນຜິງ, ປະທານປະເທດຈີນບໍ່ໄດ້ກ່າວຄຳປາໄສສູງຕໍ່ສື່ມວນຊົນ, ແຕ່ທ່ານເປັນຕົວຊີ້ນຳຕົ້ນຕໍຂອງຄຳສັ່ງຮຽກຮ້ອງໃຫ້ຈີນກາຍເປັນກຳລັງທີ່ເດັ່ນໃນດ້ານAIໃນປີ 2030.
ມີຄວາມວິຕົກກັງວົນເພີ່ມຂຶ້ນຢູ່ໃນສະຫະລັດກ່ຽວກັບ "ຜົນກະທົບຈາກດາວທຽມ", ເຊິ່ງໄດ້ສະແດງໃຫ້ເຫັນວ່າສະຫະລັດບໍ່ມີອຸປະກອນທີ່ສຸດທີ່ຈະຕອບສະຫນອງສິ່ງທ້າທາຍໃຫມ່ທີ່ເກີດຂື້ນໂດຍປັນຍາປະດິດ. ແລະນີ້ສາມາດເປັນອັນຕະລາຍຕໍ່ສັນຕິພາບ, ຖ້າຫາກວ່າພຽງແຕ່ເນື່ອງຈາກວ່າປະເທດທີ່ຖືກຂົ່ມຂູ່ໂດຍການຄອບງໍາອາດຈະຕ້ອງການທີ່ຈະລົບລ້າງການໄດ້ປຽບຍຸດທະສາດຂອງສັດຕູໃນວິທີການອື່ນ, ນັ້ນແມ່ນ, ໂດຍສົງຄາມ.
ເຖິງແມ່ນວ່າຈຸດປະສົງຕົ້ນສະບັບຂອງໂຄງການ Maven ແມ່ນເພື່ອຊ່ວຍເຫຼືອຊອກຫານັກສູ້ ISIS ຂອງອິດສະລາມ, ຄວາມສໍາຄັນຂອງມັນສໍາລັບການພັດທະນາລະບົບປັນຍາປະດິດທາງທະຫານຕື່ມອີກແມ່ນໃຫຍ່ຫຼວງ. ສົງຄາມອີເລັກໂທຣນິກໂດຍອີງໃສ່ເຄື່ອງບັນທຶກ, ຈໍພາບແລະເຊັນເຊີ (ລວມທັງມືຖື, ການບິນ) ແມ່ນກ່ຽວຂ້ອງກັບການໄຫລຂອງຂໍ້ມູນຈໍານວນຫລາຍ, ເຊິ່ງສາມາດນໍາໃຊ້ໄດ້ຢ່າງມີປະສິດທິພາບໂດຍການຊ່ວຍເຫຼືອຂອງ AI algorithms.
ສະຫນາມຮົບປະສົມໄດ້ກາຍເປັນ ຮຸ່ນທະຫານຂອງ IoT, ອຸດົມສົມບູນໃນຂໍ້ມູນຂ່າວສານທີ່ສໍາຄັນສໍາລັບການປະເມີນການຂົ່ມຂູ່ແລະໂອກາດທາງດ້ານຍຸດທະສາດແລະມີສິດເທົ່າທຽມ. ຄວາມສາມາດໃນການຈັດການຂໍ້ມູນນີ້ໃນເວລາຈິງມີຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງ, ແຕ່ຄວາມລົ້ມເຫຼວທີ່ຈະຮຽນຮູ້ຈາກຂໍ້ມູນນີ້ສາມາດເປັນອັນຕະລາຍໄດ້. ຄວາມສາມາດທີ່ຈະປະມວນຜົນຢ່າງວ່ອງໄວຂອງຂໍ້ມູນຂ່າວສານຈາກເວທີຕ່າງໆທີ່ປະຕິບັດງານໃນຫຼາຍຂົງເຂດສະຫນອງໃຫ້ມີສອງຂໍ້ໄດ້ປຽບທາງທະຫານທີ່ສໍາຄັນ: ຄວາມໄວ i ຄວາມສາມາດໃນການເຂົ້າເຖິງ. ປັນຍາທຽມຊ່ວຍໃຫ້ທ່ານສາມາດວິເຄາະສະພາບການເຄື່ອນໄຫວຂອງສະຫນາມຮົບໃນເວລາທີ່ແທ້ຈິງແລະການໂຈມຕີຢ່າງໄວວາແລະດີທີ່ສຸດ, ໃນຂະນະທີ່ຫຼຸດຜ່ອນຄວາມສ່ຽງຕໍ່ກໍາລັງຂອງເຈົ້າເອງ.
ສະຫນາມຮົບໃຫມ່ນີ້ແມ່ນຍັງຢູ່ທົ່ວທຸກແຫ່ງແລະ. AI ແມ່ນຈຸດໃຈກາງຂອງອັນທີ່ເອີ້ນວ່າ drone swarms, ເຊິ່ງໄດ້ຮັບຄວາມສົນໃຈຫຼາຍໃນຊຸມປີມໍ່ໆມານີ້. ດ້ວຍຄວາມຊ່ອຍເຫລືອຂອງເຊັນເຊີຢູ່ທົ່ວທຸກແຫ່ງ, ບໍ່ພຽງແຕ່ອະນຸຍາດໃຫ້ drones ເພື່ອນໍາທາງພູມສັນຖານ hostile, ແຕ່ໃນທີ່ສຸດອາດຈະອະນຸຍາດໃຫ້ການສ້າງຕັ້ງສະລັບສັບຊ້ອນຂອງປະເພດຕ່າງໆຂອງຍານພາຫະນະທາງອາກາດທີ່ບໍ່ມີຄົນຂັບປະຕິບັດການໃນຫຼາຍພື້ນທີ່, ມີອາວຸດເພີ່ມເຕີມທີ່ອະນຸຍາດໃຫ້ມີສິດເທົ່າທຽມການຕໍ່ສູ້ທີ່ຊັບຊ້ອນ, ທັນທີທັນໃດປັບຕົວເຂົ້າກັບ. ສັດຕູ. maneuvers ເພື່ອໃຊ້ປະໂຫຍດຈາກສະຫນາມຮົບແລະລາຍງານສະພາບການປ່ຽນແປງ.
ຄວາມກ້າວຫນ້າໃນການອອກແບບເປົ້າຫມາຍແລະການນໍາທາງທີ່ມີການຊ່ວຍເຫຼືອຂອງ AI ຍັງເປັນການປັບປຸງຄວາມສົດໃສດ້ານສໍາລັບປະສິດທິຜົນໃນຂອບເຂດກ້ວາງຂອງລະບົບປ້ອງກັນຍຸດທະວິທີແລະຍຸດທະສາດ, ໂດຍສະເພາະແມ່ນການປ້ອງກັນລູກສອນໄຟ, ໂດຍການປັບປຸງວິທີການກວດສອບ, ຕິດຕາມແລະກໍານົດເປົ້າຫມາຍ.
ສືບຕໍ່ເພີ່ມພະລັງງານຂອງການຈໍາລອງແລະເຄື່ອງມືເກມທີ່ໃຊ້ໃນການຄົ້ນຄວ້າອາວຸດນິວເຄລຍແລະທໍາມະດາ. ການສ້າງແບບຈໍາລອງແລະການຈໍາລອງມະຫາຊົນຈະເປັນສິ່ງຈໍາເປັນເພື່ອພັດທະນາລະບົບຫຼາຍໂດເມນທີ່ສົມບູນແບບຂອງລະບົບເປົ້າຫມາຍສໍາລັບການຄວບຄຸມການຕໍ່ສູ້ແລະພາລະກິດທີ່ສັບສົນ. AI ຍັງເສີມສ້າງການໂຕ້ຕອບຫຼາຍຝ່າຍ (5). AI ອະນຸຍາດໃຫ້ຜູ້ຫຼິ້ນສາມາດເພີ່ມ ແລະແກ້ໄຂຕົວແປເກມເພື່ອສຳຫຼວດເບິ່ງວ່າສະພາບການເຄື່ອນໄຫວ (ອາວຸດ, ການມີສ່ວນຮ່ວມຂອງພັນທະມິດ, ກອງທັບເພີ່ມເຕີມ, ແລະອື່ນໆ) ສາມາດສົ່ງຜົນກະທົບຕໍ່ການປະຕິບັດ ແລະການຕັດສິນໃຈແນວໃດ.
ສໍາລັບທະຫານ, ການກໍານົດວັດຖຸແມ່ນຈຸດເລີ່ມຕົ້ນທໍາມະຊາດສໍາລັບ AI. ກ່ອນອື່ນ ໝົດ, ການວິເຄາະທີ່ສົມບູນແບບແລະໄວກ່ຽວກັບ ຈຳ ນວນຮູບພາບແລະຂໍ້ມູນທີ່ເກັບ ກຳ ຈາກດາວທຽມແລະ drones ທີ່ເພີ່ມຂື້ນແມ່ນມີຄວາມ ຈຳ ເປັນເພື່ອຊອກຫາວັດຖຸທີ່ມີຄວາມ ໝາຍ ທາງດ້ານການທະຫານ, ເຊັ່ນລູກສອນໄຟ, ການເຄື່ອນໄຫວຂອງກອງທັບແລະຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບຂ່າວລັບອື່ນໆ. ທຸກມື້ນີ້, ສະໜາມຮົບໄດ້ກວມເອົາພູມສັນຖານທັງໝົດ - ທະເລ, ແຜ່ນດິນ, ອາກາດ, ພື້ນທີ່ ແລະ cyberspace - ໃນຂອບເຂດທົ່ວໂລກ.
ໄຊເບີເປັນໂດເມນດິຈິຕອນໂດຍທໍາມະຊາດ, ມັນເຫມາະສົມກັບຄໍາຮ້ອງສະຫມັກ AI ຕາມທໍາມະຊາດ. ໃນດ້ານການກະທໍາຜິດ, AI ສາມາດຊ່ວຍຊອກຫາແລະເປົ້າຫມາຍ nodes ເຄືອຂ່າຍສ່ວນບຸກຄົນຫຼືບັນຊີສ່ວນບຸກຄົນເພື່ອເກັບກໍາ, ລົບກວນ, ຫຼືຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ. ການໂຈມຕີທາງໄຊເບີຕໍ່ໂຄງສ້າງພື້ນຖານພາຍໃນແລະເຄືອຂ່າຍຄໍາສັ່ງສາມາດເປັນໄພພິບັດ. ເທົ່າທີ່ປ້ອງກັນປະເທດກ່ຽວຂ້ອງ, AI ສາມາດຊ່ວຍກວດຫາການບຸກລຸກດັ່ງກ່າວ ແລະຊອກຫາຄວາມຜິດປົກກະຕິທີ່ເປັນອັນຕະລາຍໃນລະບົບປະຕິບັດງານຂອງພົນລະເຮືອນ ແລະທະຫານ.
ຄວາມໄວຄາດຫວັງແລະອັນຕະລາຍ
ຢ່າງໃດກໍ່ຕາມ, ການຕັດສິນໃຈໄວ ແລະການປະຕິບັດທັນທີອາດຈະບໍ່ຮັບໃຊ້ເຈົ້າໄດ້ດີ. ສໍາລັບການຄຸ້ມຄອງວິກິດການທີ່ມີປະສິດທິພາບ. ຂໍ້ດີຂອງລະບົບປັນຍາປະດິດ ແລະລະບົບປົກຄອງຕົນເອງໃນສະຫນາມຮົບອາດຈະບໍ່ອະນຸຍາດໃຫ້ໃຊ້ເວລາສໍາລັບການທູດ, ດັ່ງທີ່ພວກເຮົາຮູ້ຈາກປະຫວັດສາດ, ມັກຈະປະສົບຜົນສໍາເລັດເປັນວິທີການປ້ອງກັນຫຼືການຄຸ້ມຄອງວິກິດການ. ໃນທາງປະຕິບັດ, ການຊ້າລົງ, ຢຸດຊົ່ວຄາວ, ແລະເວລາໃນການເຈລະຈາສາມາດເປັນກຸນແຈຂອງໄຊຊະນະ, ຫຼືຢ່າງຫນ້ອຍການຫລີກລ່ຽງໄພພິບັດ, ໂດຍສະເພາະໃນເວລາທີ່ອາວຸດນິວເຄລຍຢູ່ໃນຄວາມສ່ຽງ.
ການຕັດສິນໃຈກ່ຽວກັບສົງຄາມ ແລະສັນຕິພາບບໍ່ສາມາດຖືກປ່ອຍໃຫ້ເປັນການວິເຄາະຄາດຄະເນ. ມີຄວາມແຕກຕ່າງພື້ນຖານໃນວິທີການນໍາໃຊ້ຂໍ້ມູນສໍາລັບຈຸດປະສົງທາງວິທະຍາສາດ, ເສດຖະກິດ, ການຂົນສົ່ງແລະການຄາດຄະເນ. ພຶດຕິກໍາຂອງມະນຸດ.
ບາງຄົນອາດຈະຮັບຮູ້ AI ເປັນກໍາລັງທີ່ເຮັດໃຫ້ຄວາມອ່ອນໄຫວດ້ານຍຸດທະສາດຂອງກັນແລະກັນແລະດັ່ງນັ້ນຈຶ່ງເພີ່ມຄວາມສ່ຽງຂອງສົງຄາມ. ຂໍ້ມູນທີ່ເສຍຫາຍໂດຍບັງເອີນຫຼືໂດຍເຈດຕະນາສາມາດເຮັດໃຫ້ລະບົບ AI ປະຕິບັດການກະທໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ເຊັ່ນ: ການລະບຸຜິດແລະກໍານົດເປົ້າຫມາຍທີ່ບໍ່ຖືກຕ້ອງ. ຄວາມໄວຂອງການປະຕິບັດທີ່ກໍານົດໃນກໍລະນີຂອງການພັດທະນາຂອງ algorithms ສົງຄາມອາດຈະຫມາຍເຖິງການເພີ່ມຂຶ້ນກ່ອນໄວອັນຄວນຫຼືແມ້ກະທັ້ງທີ່ບໍ່ຈໍາເປັນທີ່ impedes ການຄຸ້ມຄອງສົມເຫດສົມຜົນຂອງວິກິດການ. ໃນທາງກົງກັນຂ້າມ, algorithms ຈະບໍ່ລໍຖ້າແລະອະທິບາຍ, ເພາະວ່າພວກມັນຍັງຄາດວ່າຈະໄວ.
ລັກສະນະລົບກວນ ການເຮັດວຽກຂອງ algorithms ປັນຍາປະດິດ ຍັງນໍາສະເຫນີໂດຍພວກເຮົາບໍ່ດົນມານີ້ໃນ MT. ເຖິງແມ່ນວ່າຜູ້ຊ່ຽວຊານບໍ່ຮູ້ຢ່າງແນ່ນອນວ່າ AI ນໍາໄປສູ່ຜົນໄດ້ຮັບທີ່ພວກເຮົາເຫັນຢູ່ໃນຜົນໄດ້ຮັບ.
ໃນກໍລະນີຂອງ algorithms ສົງຄາມ, ພວກເຮົາບໍ່ສາມາດໃຫ້ຄວາມໂງ່ຈ້າດັ່ງກ່າວກ່ຽວກັບທໍາມະຊາດແລະວິທີທີ່ພວກເຂົາ "ຄິດ" ພວກມັນ. ພວກເຮົາບໍ່ຕ້ອງການທີ່ຈະຕື່ນຂຶ້ນໃນຕອນກາງຄືນທີ່ຈະ flares nuclear ເພາະວ່າ "ຂອງພວກເຮົາ" ຫຼື "ຂອງເຂົາເຈົ້າ" ປັນຍາປະດິດໄດ້ຕັດສິນໃຈມັນເຖິງເວລາທີ່ສຸດທີ່ຈະແກ້ໄຂເກມໄດ້.