ສົງຄາມຂອງ algorithms
ຂອງເຕັກໂນໂລຊີ

ສົງຄາມຂອງ algorithms

ໃນເວລາທີ່ມັນມາກັບການນໍາໃຊ້ປັນຍາປະດິດໃນການທະຫານ, ຄວາມຝັນຮ້າຍຂອງ fiction ວິທະຍາສາດໄດ້ຕື່ນຂຶ້ນທັນທີ, AI ທີ່ກະບົດແລະຕາຍທີ່ລຸກຂຶ້ນຕໍ່ຕ້ານມະນຸດເພື່ອທໍາລາຍມັນ. ແຕ່ຫນ້າເສຍດາຍ, ຄວາມຢ້ານກົວຂອງທະຫານແລະຜູ້ນໍາທີ່ "ສັດຕູຈະຕິດຕາມພວກເຮົາ" ແມ່ນມີຄວາມເຂັ້ມແຂງໃນການພັດທະນາສູດການຄິດໄລ່ສົງຄາມ.

ສົງຄາມສູດການຄິດໄລ່ອີງ​ຕາມ​ການ​ຫຼາຍ​ຄົນ​, ໂດຍ​ພື້ນ​ຖານ​ສາ​ມາດ​ປ່ຽນ​ຫນ້າ​ຂອງ​ສະ​ຫນາມ​ຮົບ​ດັ່ງ​ທີ່​ພວກ​ເຮົາ​ຮູ້​ຈັກ​ມັນ​, ສ່ວນ​ໃຫຍ່​ແມ່ນ​ເນື່ອງ​ຈາກ​ວ່າ​ການ​ສູ້​ຮົບ​ຈະ​ໄວ​ຂຶ້ນ​, ໄກ​ກວ່າ​ຄວາມ​ສາ​ມາດ​ຂອງ​ປະ​ຊາ​ຊົນ​ໃນ​ການ​ຕັດ​ສິນ​ໃຈ​. ນາຍ​ພົນ​ອາ​ເມ​ລິ​ກາ Jack Shanahan (1), ຫົວຫນ້າສູນລວມຂອງສະຫະລັດສໍາລັບປັນຍາປະດິດ, ເນັ້ນຫນັກວ່າ, ແນວໃດກໍ່ຕາມ, ກ່ອນທີ່ຈະນໍາປັນຍາປະດິດເຂົ້າໄປໃນສານຫນູ, ພວກເຮົາຕ້ອງຮັບປະກັນວ່າລະບົບເຫຼົ່ານີ້ຍັງຢູ່ພາຍໃຕ້ການຄວບຄຸມຂອງມະນຸດແລະບໍ່ໄດ້ເລີ່ມຕົ້ນສົງຄາມດ້ວຍຕົນເອງ.

"ຖ້າສັດຕູມີເຄື່ອງຈັກແລະລະບົບວິທີ, ພວກເຮົາຈະສູນເສຍຄວາມຂັດແຍ້ງນີ້."

ຄວາມສາມາດໃນການຂັບລົດ ສົງຄາມ algorithmic ແມ່ນອີງໃສ່ການນໍາໃຊ້ຄວາມກ້າວຫນ້າຂອງເຕັກໂນໂລຊີຄອມພິວເຕີໃນສາມຂົງເຂດຕົ້ນຕໍ. ທໍາອິດ ທົດສະວັດຂອງການຂະຫຍາຍຕົວຂອງ exponential ໃນພະລັງງານຄອມພິວເຕີອັນນີ້ໄດ້ປັບປຸງປະສິດທິພາບຂອງການຮຽນຮູ້ເຄື່ອງຈັກ. ທີສອງ ການຂະຫຍາຍຕົວຢ່າງໄວວາຂອງຊັບພະຍາກອນ "ຂໍ້ມູນໃຫຍ່", ນັ້ນແມ່ນ, ຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່, ປົກກະຕິແລ້ວອັດຕະໂນມັດ, ການຄຸ້ມຄອງແລະສ້າງຢ່າງຕໍ່ເນື່ອງທີ່ເຫມາະສົມກັບການຮຽນຮູ້ເຄື່ອງຈັກ. ຄວາມກັງວົນທີສາມ ການພັດທະນາຢ່າງໄວວາຂອງເຕັກໂນໂລຊີຄອມພິວເຕີ້ຟັງ, ໂດຍຜ່ານທີ່ຄອມພິວເຕີສາມາດເຂົ້າເຖິງຊັບພະຍາກອນຂໍ້ມູນໄດ້ຢ່າງງ່າຍດາຍແລະປຸງແຕ່ງໃຫ້ເຂົາເຈົ້າແກ້ໄຂບັນຫາ.

ສູດການຄິດໄລ່ສົງຄາມຕາມທີ່ໄດ້ກໍານົດໂດຍຜູ້ຊ່ຽວຊານ, ມັນທໍາອິດຕ້ອງໄດ້ຮັບການສະແດງອອກ ລະ​ຫັດ​ຄອມ​ພິວ​ເຕີ​. ອັນທີສອງ, ມັນຕ້ອງເປັນຜົນມາຈາກເວທີທີ່ມີຄວາມສາມາດໃນການເກັບກໍາຂໍ້ມູນແລະການເລືອກ, ການຕັດສິນໃຈທີ່ຢ່າງຫນ້ອຍໃນທາງທິດສະດີ, ບໍ່ຕ້ອງການ. ການແຊກແຊງຂອງມະນຸດ. ອັນທີສາມ, ເຊິ່ງເບິ່ງຄືວ່າຈະແຈ້ງ, ແຕ່ບໍ່ຈໍາເປັນ, ສໍາລັບການດໍາເນີນການພຽງແຕ່ວ່າມັນຈະກາຍເປັນທີ່ຊັດເຈນວ່າເຕັກນິກທີ່ມີຈຸດປະສົງສໍາລັບບາງສິ່ງບາງຢ່າງອື່ນສາມາດເປັນປະໂຫຍດໃນສົງຄາມແລະໃນທາງກັບກັນ, ມັນຕ້ອງສາມາດເຮັດວຽກຢູ່ໃນເງື່ອນໄຂ. ການ​ປະ​ທະ​ກັນ​ປະ​ກອບ​ອາ​ວຸດ​.

ການວິເຄາະທິດທາງຂ້າງເທິງແລະການໂຕ້ຕອບຂອງພວກເຂົາສະແດງໃຫ້ເຫັນວ່າ ສົງຄາມ algorithmic ມັນບໍ່ແມ່ນເຕັກໂນໂລຊີແຍກຕ່າງຫາກເຊັ່ນ, ສໍາລັບການຍົກຕົວຢ່າງ. ອາ​ວຸດ​ພະ​ລັງ​ງານ​ ຫຼື ລູກສອນໄຟຄວາມໄວສູງ. ຜົນ​ກະ​ທົບ​ຂອງ​ມັນ​ແມ່ນ​ກວ້າງ​ຂວາງ​ແລະ​ຄ່ອຍໆ​ກາຍ​ເປັນ​ຢູ່​ທົ່ວ​ທຸກ​ແຫ່ງ​ໃນ​ການ​ປະ​ທະ​ກັນ. ເປັນ​ຄັ້ງ​ທໍາ​ອິດ ພາຫະນະການທະຫານ ພວກ​ເຂົາ​ເຈົ້າ​ກາຍ​ເປັນ​ອັດ​ສະ​ລິ​ຍະ, ມີ​ຄວາມ​ສາ​ມາດ​ເຮັດ​ໃຫ້​ກໍາ​ລັງ​ປ້ອງ​ກັນ​ປະ​ເທດ​ທີ່​ປະ​ຕິ​ບັດ​ໃຫ້​ມີ​ປະ​ສິດ​ທິ​ພາບ​ແລະ​ປະ​ສິດ​ທິ​ຜົນ. ເຄື່ອງຈັກອັດສະລິຍະດັ່ງກ່າວມີຂໍ້ຈໍາກັດທີ່ຊັດເຈນທີ່ຕ້ອງໄດ້ຮັບການເຂົ້າໃຈດີ.

"" Shanahan ກ່າວໃນລຶະເບິ່ງໃບໄມ້ລ່ວງທີ່ຜ່ານມາໃນການສໍາພາດກັບອະດີດ CEO ຂອງ Google Eric Schmidt ແລະຮອງປະທານຝ່າຍຕ່າງປະເທດຂອງ Google Kent Walker. "".

ຮ່າງ​ບົດ​ລາຍ​ງານ​ຂອງ​ສະພາ​ຄວາມ​ໝັ້ນຄົງ​ແຫ່ງ​ຊາດ​ອາ​ເມ​ລິ​ກາ​ກ່ຽວ​ກັບ AI ​ໄດ້​ອ້າງ​ເຖິງ​ຈີນ​ຫຼາຍ​ກວ່າ 50 ຄັ້ງ, ​ໄດ້​ຍົກ​ໃຫ້​ເຫັນ​ເປົ້າ​ໝາຍ​ຢ່າງ​ເປັນ​ທາງ​ການ​ຂອງ​ຈີນ​ທີ່​ຈະ​ກາຍ​ເປັນ​ຜູ້ນຳ​ດ້ານ AI ຂອງ​ໂລກ​ໃນ​ປີ 2030.ເບິ່ງ: ).

ຄໍາເວົ້າເຫຼົ່ານີ້ໄດ້ຖືກເວົ້າໃນວໍຊິງຕັນໃນກອງປະຊຸມພິເສດທີ່ໄດ້ຈັດຂຶ້ນຫຼັງຈາກສູນ Shanakhan ໄດ້ກ່າວມາຂ້າງເທິງໄດ້ນໍາສະເຫນີບົດລາຍງານເບື້ອງຕົ້ນຂອງຕົນຕໍ່ກອງປະຊຸມ, ກະກຽມໃນການຮ່ວມມືກັບຜູ້ຊ່ຽວຊານທີ່ມີຊື່ສຽງໃນຂົງເຂດປັນຍາປະດິດ, ລວມທັງຜູ້ອໍານວຍການຄົ້ນຄ້ວາ Microsoft Eric Horwitz, CEO AWS Andy Jassa ແລະ. ນັກຄົ້ນຄວ້າຫຼັກຂອງ Google Cloud ທ່ານ Andrew Moore. ບົດລາຍງານສຸດທ້າຍຈະຖືກເຜີຍແຜ່ໃນເດືອນຕຸລາ 2020.

ພະນັກງານ Google ປະທ້ວງ

ສອງສາມປີກ່ອນ, Pentagon ໄດ້ມີສ່ວນຮ່ວມ. ສົງຄາມ algorithmic ແລະຫຼາຍໆໂຄງການທີ່ກ່ຽວຂ້ອງກັບ AI ພາຍໃຕ້ໂຄງການ Maven, ອີງໃສ່ການຮ່ວມມືກັບບໍລິສັດເຕັກໂນໂລຢີ, ລວມທັງ Google ແລະ startups ເຊັ່ນ Clarifai. ມັນສ່ວນໃຫຍ່ແມ່ນກ່ຽວກັບການເຮັດວຽກ ປັນຍາປະດິດເພື່ອອໍານວຍຄວາມສະດວກໃນການກໍານົດວັດຖຸ.

ໃນເວລາທີ່ມັນໄດ້ກາຍເປັນທີ່ຮູ້ຈັກກ່ຽວກັບການເຂົ້າຮ່ວມຂອງ Google ໃນໂຄງການໃນພາກຮຽນ spring ຂອງ 2018, ຫລາຍພັນຄົນຂອງພະນັກງານຂອງຍັກໃຫຍ່ Mountain View ໄດ້ລົງນາມໃນຈົດຫມາຍເປີດປະທ້ວງຕໍ່ຕ້ານການມີສ່ວນຮ່ວມຂອງບໍລິສັດໃນ hostilities. ຫຼັງຈາກເດືອນຂອງຄວາມບໍ່ສະຫງົບແຮງງານ Google ໄດ້ຮັບຮອງເອົາກົດລະບຽບຂອງຕົນເອງສໍາລັບ AIເຊິ່ງລວມເຖິງການຫ້າມເຂົ້າຮ່ວມກິດຈະກຳຕ່າງໆ.

ກູໂກຍັງໄດ້ໃຫ້ຄໍາຫມັ້ນສັນຍາທີ່ຈະສໍາເລັດສັນຍາໂຄງການ Maven ໃນທ້າຍປີ 2019. ການອອກຂອງ Google ບໍ່ໄດ້ສິ້ນສຸດໂຄງການ Maven. ມັນຖືກຊື້ໂດຍ Palantir ຂອງ Peter Thiel. ກອງທັບອາກາດ ແລະກອງທັບເຮືອສະຫະລັດ ວາງແຜນທີ່ຈະນຳໃຊ້ເຮືອບິນບໍ່ມີຄົນຂັບພິເສດ ເຊັ່ນ Global Hawk ເປັນສ່ວນຫນຶ່ງຂອງໂຄງການ Maven, ເຊິ່ງແຕ່ລະບ່ອນຄາດວ່າຈະສາມາດຕິດຕາມພາບໄດ້ເຖິງ 100 ຕາລາງກິໂລແມັດ.

ໃນໂອກາດຂອງສິ່ງທີ່ເກີດຂຶ້ນປະມານໂຄງການ Maven, ມັນໄດ້ກາຍເປັນທີ່ຊັດເຈນວ່າກອງທັບສະຫະລັດຕ້ອງການຄວາມຮີບດ່ວນຂອງເມຄຂອງຕົນເອງ. ນີ້ແມ່ນສິ່ງທີ່ Shanahan ກ່າວໃນກອງປະຊຸມ. ນີ້ແມ່ນເຫັນໄດ້ຊັດເຈນເມື່ອວິດີໂອວິດີໂອແລະການປັບປຸງລະບົບຕ້ອງໄດ້ຮັບການຂົນສົ່ງໄປຫາການຕິດຕັ້ງທະຫານທີ່ກະແຈກກະຈາຍໄປທົ່ວພາກສະຫນາມ. ຢູ່ໃນອາຄານ ຄອມພິວເຕີຄລາວລວມ, ເຊິ່ງຈະຊ່ວຍແກ້ໄຂບັນຫາຂອງປະເພດນີ້, ເປັນສ່ວນຫນຶ່ງຂອງໂຄງການພື້ນຖານໂຄງລ່າງ IT ທີ່ເປັນເອກະພາບສໍາລັບກອງທັບ Jedi, Microsoft, Amazon, Oracle ແລະ IBM. Google ບໍ່ແມ່ນຍ້ອນລະຫັດຈັນຍາບັນຂອງພວກເຂົາ.

ມັນເປັນທີ່ຊັດເຈນຈາກຄໍາເວົ້າຂອງ Shanahan ວ່າການປະຕິວັດ AI ທີ່ຍິ່ງໃຫຍ່ຢູ່ໃນກອງທັບແມ່ນພຽງແຕ່ເລີ່ມຕົ້ນເທົ່ານັ້ນ. ​ແລະ​ບົດບາດ​ຂອງ​ສູນ​ກາງ​ຂອງ​ຕົນ​ໃນ​ກອງ​ກຳລັງ​ປະກອບ​ອາວຸດ​ຂອງ​ອາ​ເມ​ລິ​ກາ​ພວມ​ເຕີບ​ໂຕ. ນີ້ແມ່ນເຫັນໄດ້ຊັດເຈນຢູ່ໃນງົບປະມານ JAIC ຄາດຄະເນ. ​ໃນ​ປີ 2019, ຍອດ​ມູນ​ຄ່າ​ດັ່ງກ່າວ​ມີ​ເຖິງ 90 ລ້ານ​ໂດ​ລາ​ສະຫະລັດ. ໃນປີ 2020, ມັນຄວນຈະເປັນ $414 ລ້ານແລ້ວ, ຫຼືປະມານ 10 ເປີເຊັນຂອງງົບປະມານ AI $4 ຕື້ຂອງ Pentagon.

ເຄື່ອງຈັກຮັບຮູ້ທະຫານທີ່ຍອມຈໍານົນ

ກອງທັບ​ສະຫະລັດ​ມີ​ລະບົບ​ຕ່າງໆ​ແລ້ວ​ເຊັ່ນ: ຍົນ​ຮົບ Phalanx (2) ​ເຊິ່ງ​ເປັນ​ອາວຸດ​ຍຸດ​ໂທ​ປະກອນ​ທີ່​ໃຊ້​ໃນ​ກຳ​ປັ່ນ​ຂອງ​ກອງທັບ​ເຮືອ​ສະຫະລັດ ​ເພື່ອ​ໂຈມ​ຕີ​ລູກ​ສອນ​ໄຟ​ທີ່​ເຂົ້າ​ມາ. ເມື່ອກວດພົບລູກສອນໄຟ, ມັນຈະເປີດອັດຕະໂນມັດແລະທໍາລາຍທຸກສິ່ງທຸກຢ່າງທີ່ຢູ່ໃນເສັ້ນທາງຂອງມັນ. ອີງຕາມການ Ford, ລາວສາມາດໂຈມຕີດ້ວຍລູກສອນໄຟສີ່ຫຼືຫ້າລູກໃນເວລາເຄິ່ງວິນາທີໂດຍບໍ່ຈໍາເປັນຕ້ອງຜ່ານແລະເບິ່ງແຕ່ລະເປົ້າຫມາຍ.

ຕົວຢ່າງອີກອັນຫນຶ່ງແມ່ນ Harpy ເຄິ່ງເອກະລາດ (3), ລະບົບການຄ້າທີ່ບໍ່ມີຄົນຂັບ. harpy ໄດ້ຖືກນໍາໃຊ້ເພື່ອທໍາລາຍ radars enemy. ຕົວຢ່າງເຊັ່ນ, ໃນປີ 2003, ເມື່ອສະຫະລັດໄດ້ໂຈມຕີອີຣັກທີ່ມີລະບົບສະກັດກັ້ນ radar ທາງອາກາດ, drones ທີ່ຜະລິດໂດຍ Israel ໄດ້ຊ່ວຍຊອກຫາແລະທໍາລາຍມັນເພື່ອໃຫ້ຊາວອາເມລິກາສາມາດບິນເຂົ້າໄປໃນເຂດນ່ານຟ້າຂອງອີຣັກໄດ້ຢ່າງປອດໄພ.

3. ການເປີດຕົວ drone ຂອງລະບົບ IAI Harpy

ຕົວຢ່າງອີກອັນຫນຶ່ງທີ່ມີຊື່ສຽງຂອງອາວຸດເອກະລາດແມ່ນ ລະບົບ Samsung SGR-1 ພາສາເກົາຫຼີ​ເຊິ່ງຕັ້ງ​ຢູ່​ໃນ​ເຂດ​ປອດ​ທະຫານ​ລະຫວ່າງ​ເກົາຫລີ​ເໜືອ ​ແລະ​ເກົາຫລີ​ໃຕ້, ​ໄດ້​ອອກ​ແບບ​ເພື່ອ​ກຳນົດ​ຕົວ ​ແລະ ຍິງ​ພວກ​ບຸກ​ໂຈມ​ຕີ​ຢູ່​ໃນ​ໄລຍະ​ຫ່າງ​ເຖິງ XNUMX ກິ​ໂລ​ແມັດ. ອີງຕາມຄໍາອະທິບາຍ, ລະບົບ "ສາມາດຈໍາແນກລະຫວ່າງຜູ້ທີ່ຍອມຈໍານົນແລະຜູ້ທີ່ບໍ່ຍອມຈໍານົນ" ໂດຍອີງໃສ່ຕໍາແຫນ່ງຂອງມືຂອງເຂົາເຈົ້າຫຼືການຮັບຮູ້ຕໍາແຫນ່ງຂອງອາວຸດຢູ່ໃນມືຂອງເຂົາເຈົ້າ.

4. ການສາທິດການກວດພົບທະຫານທີ່ຍອມຈຳນົນໂດຍລະບົບ Samsung SGR-1

ຊາວອາເມຣິກັນຢ້ານວ່າຈະຖືກປະໄວ້

ປະຈຸ​ບັນ, ມີ​ຢ່າງ​ໜ້ອຍ 30 ປະ​ເທດ​ໃນ​ທົ່ວ​ໂລກ​ໄດ້​ນຳ​ໃຊ້​ອາ​ວຸດ​ອັດ​ຕະ​ໂນ​ມັດ​ທີ່​ມີ​ລະດັບ​ການ​ພັດທະນາ​ແລະ​ການ​ນຳ​ໃຊ້ AI ທີ່​ແຕກ​ຕ່າງ​ກັນ. ຈີນ, ຣັດ​ເຊຍ​ແລະ​ອາ​ເມ​ລິ​ກາ​ເຫັນ​ວ່າ​ປັນຍາ​ປະດິດ​ເປັນ​ສິ່ງ​ທີ່​ຂາດ​ບໍ່​ໄດ້​ໃນ​ການ​ສ້າງ​ຖານະ​ທີ່​ເປັນ​ອະນາຄົດ​ຂອງ​ຕົນ​ໃນ​ໂລກ. ປະທານາທິບໍດີຣັດເຊຍທ່ານ Vladimir Putin ກ່າວຕໍ່ນັກຮຽນໃນເດືອນສິງຫາ 2017 ວ່າ "ຜູ້ໃດຊະນະການແຂ່ງຂັນ AI ຈະປົກຄອງໂລກ." ທ່ານ​ສີ​ຈິ້ນ​ຜິ​ງ, ປະທານ​ປະ​ເທດ​ຈີນ​ບໍ່​ໄດ້​ກ່າວ​ຄຳ​ປາ​ໄສ​ສູງ​ຕໍ່​ສື່​ມວນ​ຊົນ, ​ແຕ່​ທ່ານ​ເປັນ​ຕົວ​ຊີ້​ນຳ​ຕົ້ນຕໍ​ຂອງ​ຄຳ​ສັ່ງ​ຮຽກຮ້ອງ​ໃຫ້​ຈີນ​ກາຍ​ເປັນ​ກຳລັງ​ທີ່​ເດັ່ນ​ໃນ​ດ້ານ​AI​ໃນ​ປີ 2030.

ມີຄວາມວິຕົກກັງວົນເພີ່ມຂຶ້ນຢູ່ໃນສະຫະລັດກ່ຽວກັບ "ຜົນກະທົບຈາກດາວທຽມ", ເຊິ່ງໄດ້ສະແດງໃຫ້ເຫັນວ່າສະຫະລັດບໍ່ມີອຸປະກອນທີ່ສຸດທີ່ຈະຕອບສະຫນອງສິ່ງທ້າທາຍໃຫມ່ທີ່ເກີດຂື້ນໂດຍປັນຍາປະດິດ. ແລະນີ້ສາມາດເປັນອັນຕະລາຍຕໍ່ສັນຕິພາບ, ຖ້າຫາກວ່າພຽງແຕ່ເນື່ອງຈາກວ່າປະເທດທີ່ຖືກຂົ່ມຂູ່ໂດຍການຄອບງໍາອາດຈະຕ້ອງການທີ່ຈະລົບລ້າງການໄດ້ປຽບຍຸດທະສາດຂອງສັດຕູໃນວິທີການອື່ນ, ນັ້ນແມ່ນ, ໂດຍສົງຄາມ.

ເຖິງແມ່ນວ່າຈຸດປະສົງຕົ້ນສະບັບຂອງໂຄງການ Maven ແມ່ນເພື່ອຊ່ວຍເຫຼືອຊອກຫານັກສູ້ ISIS ຂອງອິດສະລາມ, ຄວາມສໍາຄັນຂອງມັນສໍາລັບການພັດທະນາລະບົບປັນຍາປະດິດທາງທະຫານຕື່ມອີກແມ່ນໃຫຍ່ຫຼວງ. ສົງຄາມອີເລັກໂທຣນິກໂດຍອີງໃສ່ເຄື່ອງບັນທຶກ, ຈໍພາບແລະເຊັນເຊີ (ລວມທັງມືຖື, ການບິນ) ແມ່ນກ່ຽວຂ້ອງກັບການໄຫລຂອງຂໍ້ມູນຈໍານວນຫລາຍ, ເຊິ່ງສາມາດນໍາໃຊ້ໄດ້ຢ່າງມີປະສິດທິພາບໂດຍການຊ່ວຍເຫຼືອຂອງ AI algorithms.

ສະຫນາມຮົບປະສົມໄດ້ກາຍເປັນ ຮຸ່ນທະຫານຂອງ IoT, ອຸດົມສົມບູນໃນຂໍ້ມູນຂ່າວສານທີ່ສໍາຄັນສໍາລັບການປະເມີນການຂົ່ມຂູ່ແລະໂອກາດທາງດ້ານຍຸດທະສາດແລະມີສິດເທົ່າທຽມ. ຄວາມສາມາດໃນການຈັດການຂໍ້ມູນນີ້ໃນເວລາຈິງມີຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງ, ແຕ່ຄວາມລົ້ມເຫຼວທີ່ຈະຮຽນຮູ້ຈາກຂໍ້ມູນນີ້ສາມາດເປັນອັນຕະລາຍໄດ້. ຄວາມ​ສາ​ມາດ​ທີ່​ຈະ​ປະ​ມວນ​ຜົນ​ຢ່າງ​ວ່ອງ​ໄວ​ຂອງ​ຂໍ້​ມູນ​ຂ່າວ​ສານ​ຈາກ​ເວ​ທີ​ຕ່າງໆ​ທີ່​ປະ​ຕິ​ບັດ​ງານ​ໃນ​ຫຼາຍ​ຂົງ​ເຂດ​ສະ​ຫນອງ​ໃຫ້​ມີ​ສອງ​ຂໍ້​ໄດ້​ປຽບ​ທາງ​ທະ​ຫານ​ທີ່​ສໍາ​ຄັນ​: ຄວາມໄວ i ຄວາມສາມາດໃນການເຂົ້າເຖິງ. ປັນຍາທຽມຊ່ວຍໃຫ້ທ່ານສາມາດວິເຄາະສະພາບການເຄື່ອນໄຫວຂອງສະຫນາມຮົບໃນເວລາທີ່ແທ້ຈິງແລະການໂຈມຕີຢ່າງໄວວາແລະດີທີ່ສຸດ, ໃນຂະນະທີ່ຫຼຸດຜ່ອນຄວາມສ່ຽງຕໍ່ກໍາລັງຂອງເຈົ້າເອງ.

ສະຫນາມຮົບໃຫມ່ນີ້ແມ່ນຍັງຢູ່ທົ່ວທຸກແຫ່ງແລະ. AI ແມ່ນຈຸດໃຈກາງຂອງອັນທີ່ເອີ້ນວ່າ drone swarms, ເຊິ່ງໄດ້ຮັບຄວາມສົນໃຈຫຼາຍໃນຊຸມປີມໍ່ໆມານີ້. ດ້ວຍຄວາມຊ່ອຍເຫລືອຂອງເຊັນເຊີຢູ່ທົ່ວທຸກແຫ່ງ, ບໍ່ພຽງແຕ່ອະນຸຍາດໃຫ້ drones ເພື່ອນໍາທາງພູມສັນຖານ hostile, ແຕ່ໃນທີ່ສຸດອາດຈະອະນຸຍາດໃຫ້ການສ້າງຕັ້ງສະລັບສັບຊ້ອນຂອງປະເພດຕ່າງໆຂອງຍານພາຫະນະທາງອາກາດທີ່ບໍ່ມີຄົນຂັບປະຕິບັດການໃນຫຼາຍພື້ນທີ່, ມີອາວຸດເພີ່ມເຕີມທີ່ອະນຸຍາດໃຫ້ມີສິດເທົ່າທຽມການຕໍ່ສູ້ທີ່ຊັບຊ້ອນ, ທັນທີທັນໃດປັບຕົວເຂົ້າກັບ. ສັດຕູ. maneuvers ເພື່ອ​ໃຊ້​ປະ​ໂຫຍດ​ຈາກ​ສະ​ຫນາມ​ຮົບ​ແລະ​ລາຍ​ງານ​ສະ​ພາບ​ການ​ປ່ຽນ​ແປງ​.

ຄວາມກ້າວຫນ້າໃນການອອກແບບເປົ້າຫມາຍແລະການນໍາທາງທີ່ມີການຊ່ວຍເຫຼືອຂອງ AI ຍັງເປັນການປັບປຸງຄວາມສົດໃສດ້ານສໍາລັບປະສິດທິຜົນໃນຂອບເຂດກ້ວາງຂອງລະບົບປ້ອງກັນຍຸດທະວິທີແລະຍຸດທະສາດ, ໂດຍສະເພາະແມ່ນການປ້ອງກັນລູກສອນໄຟ, ໂດຍການປັບປຸງວິທີການກວດສອບ, ຕິດຕາມແລະກໍານົດເປົ້າຫມາຍ.

ສືບຕໍ່ເພີ່ມພະລັງງານຂອງການຈໍາລອງແລະເຄື່ອງມືເກມທີ່ໃຊ້ໃນການຄົ້ນຄວ້າອາວຸດນິວເຄລຍແລະທໍາມະດາ. ການສ້າງແບບຈໍາລອງແລະການຈໍາລອງມະຫາຊົນຈະເປັນສິ່ງຈໍາເປັນເພື່ອພັດທະນາລະບົບຫຼາຍໂດເມນທີ່ສົມບູນແບບຂອງລະບົບເປົ້າຫມາຍສໍາລັບການຄວບຄຸມການຕໍ່ສູ້ແລະພາລະກິດທີ່ສັບສົນ. AI ຍັງເສີມສ້າງການໂຕ້ຕອບຫຼາຍຝ່າຍ (5). AI ອະນຸຍາດໃຫ້ຜູ້ຫຼິ້ນສາມາດເພີ່ມ ແລະແກ້ໄຂຕົວແປເກມເພື່ອສຳຫຼວດເບິ່ງວ່າສະພາບການເຄື່ອນໄຫວ (ອາວຸດ, ການມີສ່ວນຮ່ວມຂອງພັນທະມິດ, ກອງທັບເພີ່ມເຕີມ, ແລະອື່ນໆ) ສາມາດສົ່ງຜົນກະທົບຕໍ່ການປະຕິບັດ ແລະການຕັດສິນໃຈແນວໃດ.

ສໍາລັບທະຫານ, ການກໍານົດວັດຖຸແມ່ນຈຸດເລີ່ມຕົ້ນທໍາມະຊາດສໍາລັບ AI. ກ່ອນອື່ນ ໝົດ, ການວິເຄາະທີ່ສົມບູນແບບແລະໄວກ່ຽວກັບ ຈຳ ນວນຮູບພາບແລະຂໍ້ມູນທີ່ເກັບ ກຳ ຈາກດາວທຽມແລະ drones ທີ່ເພີ່ມຂື້ນແມ່ນມີຄວາມ ຈຳ ເປັນເພື່ອຊອກຫາວັດຖຸທີ່ມີຄວາມ ໝາຍ ທາງດ້ານການທະຫານ, ເຊັ່ນລູກສອນໄຟ, ການເຄື່ອນໄຫວຂອງກອງທັບແລະຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບຂ່າວລັບອື່ນໆ. ທຸກມື້ນີ້, ສະໜາມຮົບໄດ້ກວມເອົາພູມສັນຖານທັງໝົດ - ທະເລ, ແຜ່ນດິນ, ອາກາດ, ພື້ນທີ່ ແລະ cyberspace - ໃນຂອບເຂດທົ່ວໂລກ.

ໄຊເບີເປັນໂດເມນດິຈິຕອນໂດຍທໍາມະຊາດ, ມັນເຫມາະສົມກັບຄໍາຮ້ອງສະຫມັກ AI ຕາມທໍາມະຊາດ. ໃນດ້ານການກະທໍາຜິດ, AI ສາມາດຊ່ວຍຊອກຫາແລະເປົ້າຫມາຍ nodes ເຄືອຂ່າຍສ່ວນບຸກຄົນຫຼືບັນຊີສ່ວນບຸກຄົນເພື່ອເກັບກໍາ, ລົບກວນ, ຫຼືຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ. ການໂຈມຕີທາງໄຊເບີຕໍ່ໂຄງສ້າງພື້ນຖານພາຍໃນແລະເຄືອຂ່າຍຄໍາສັ່ງສາມາດເປັນໄພພິບັດ. ເທົ່າທີ່ປ້ອງກັນປະເທດກ່ຽວຂ້ອງ, AI ສາມາດຊ່ວຍກວດຫາການບຸກລຸກດັ່ງກ່າວ ແລະຊອກຫາຄວາມຜິດປົກກະຕິທີ່ເປັນອັນຕະລາຍໃນລະບົບປະຕິບັດງານຂອງພົນລະເຮືອນ ແລະທະຫານ.

ຄວາມ​ໄວ​ຄາດ​ຫວັງ​ແລະ​ອັນ​ຕະ​ລາຍ​

ຢ່າງໃດກໍ່ຕາມ, ການຕັດສິນໃຈໄວ ແລະການປະຕິບັດທັນທີອາດຈະບໍ່ຮັບໃຊ້ເຈົ້າໄດ້ດີ. ສໍາລັບການຄຸ້ມຄອງວິກິດການທີ່ມີປະສິດທິພາບ. ຂໍ້ດີຂອງລະບົບປັນຍາປະດິດ ແລະລະບົບປົກຄອງຕົນເອງໃນສະຫນາມຮົບອາດຈະບໍ່ອະນຸຍາດໃຫ້ໃຊ້ເວລາສໍາລັບການທູດ, ດັ່ງທີ່ພວກເຮົາຮູ້ຈາກປະຫວັດສາດ, ມັກຈະປະສົບຜົນສໍາເລັດເປັນວິທີການປ້ອງກັນຫຼືການຄຸ້ມຄອງວິກິດການ. ໃນທາງປະຕິບັດ, ການຊ້າລົງ, ຢຸດຊົ່ວຄາວ, ແລະເວລາໃນການເຈລະຈາສາມາດເປັນກຸນແຈຂອງໄຊຊະນະ, ຫຼືຢ່າງຫນ້ອຍການຫລີກລ່ຽງໄພພິບັດ, ໂດຍສະເພາະໃນເວລາທີ່ອາວຸດນິວເຄລຍຢູ່ໃນຄວາມສ່ຽງ.

ການຕັດສິນໃຈກ່ຽວກັບສົງຄາມ ແລະສັນຕິພາບບໍ່ສາມາດຖືກປ່ອຍໃຫ້ເປັນການວິເຄາະຄາດຄະເນ. ມີຄວາມແຕກຕ່າງພື້ນຖານໃນວິທີການນໍາໃຊ້ຂໍ້ມູນສໍາລັບຈຸດປະສົງທາງວິທະຍາສາດ, ເສດຖະກິດ, ການຂົນສົ່ງແລະການຄາດຄະເນ. ພຶດຕິກໍາຂອງມະນຸດ.

ບາງຄົນອາດຈະຮັບຮູ້ AI ເປັນກໍາລັງທີ່ເຮັດໃຫ້ຄວາມອ່ອນໄຫວດ້ານຍຸດທະສາດຂອງກັນແລະກັນແລະດັ່ງນັ້ນຈຶ່ງເພີ່ມຄວາມສ່ຽງຂອງສົງຄາມ. ຂໍ້ມູນທີ່ເສຍຫາຍໂດຍບັງເອີນຫຼືໂດຍເຈດຕະນາສາມາດເຮັດໃຫ້ລະບົບ AI ປະຕິບັດການກະທໍາທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ເຊັ່ນ: ການລະບຸຜິດແລະກໍານົດເປົ້າຫມາຍທີ່ບໍ່ຖືກຕ້ອງ. ຄວາມໄວຂອງການປະຕິບັດທີ່ກໍານົດໃນກໍລະນີຂອງການພັດທະນາຂອງ algorithms ສົງຄາມອາດຈະຫມາຍເຖິງການເພີ່ມຂຶ້ນກ່ອນໄວອັນຄວນຫຼືແມ້ກະທັ້ງທີ່ບໍ່ຈໍາເປັນທີ່ impedes ການຄຸ້ມຄອງສົມເຫດສົມຜົນຂອງວິກິດການ. ໃນທາງກົງກັນຂ້າມ, algorithms ຈະບໍ່ລໍຖ້າແລະອະທິບາຍ, ເພາະວ່າພວກມັນຍັງຄາດວ່າຈະໄວ.

ລັກສະນະລົບກວນ ການເຮັດວຽກຂອງ algorithms ປັນຍາປະດິດ ຍັງນໍາສະເຫນີໂດຍພວກເຮົາບໍ່ດົນມານີ້ໃນ MT. ເຖິງແມ່ນວ່າຜູ້ຊ່ຽວຊານບໍ່ຮູ້ຢ່າງແນ່ນອນວ່າ AI ນໍາໄປສູ່ຜົນໄດ້ຮັບທີ່ພວກເຮົາເຫັນຢູ່ໃນຜົນໄດ້ຮັບ.

ໃນກໍລະນີຂອງ algorithms ສົງຄາມ, ພວກເຮົາບໍ່ສາມາດໃຫ້ຄວາມໂງ່ຈ້າດັ່ງກ່າວກ່ຽວກັບທໍາມະຊາດແລະວິທີທີ່ພວກເຂົາ "ຄິດ" ພວກມັນ. ພວກ​ເຮົາ​ບໍ່​ຕ້ອງ​ການ​ທີ່​ຈະ​ຕື່ນ​ຂຶ້ນ​ໃນ​ຕອນ​ກາງ​ຄືນ​ທີ່​ຈະ flares nuclear ເພາະ​ວ່າ "ຂອງ​ພວກ​ເຮົາ​" ຫຼື "ຂອງ​ເຂົາ​ເຈົ້າ​" ປັນຍາ​ປະດິດ​ໄດ້​ຕັດ​ສິນ​ໃຈ​ມັນ​ເຖິງ​ເວ​ລາ​ທີ່​ສຸດ​ທີ່​ຈະ​ແກ້​ໄຂ​ເກມ​ໄດ້​.

ເພີ່ມຄວາມຄິດເຫັນ