Tesla: NHTSA ສືບສວນຊອບແວ Autopilot ຫຼັງຈາກເກີດອຸບັດເຫດອັນຮ້າຍແຮງຫຼາຍຄັ້ງ
ບົດ​ຄວາມ​ທີ່

Tesla: NHTSA ສືບສວນຊອບແວ Autopilot ຫຼັງຈາກເກີດອຸບັດເຫດອັນຮ້າຍແຮງຫຼາຍຄັ້ງ

ກົມຄວາມປອດໄພການສັນຈອນທາງຫຼວງແຫ່ງຊາດໄດ້ເປີດການສືບສວນກ່ຽວກັບ Autopilot ຂອງ Tesla ຫຼັງຈາກອຸປະຕິເຫດຫຼາຍຄັ້ງ. ການສືບສວນກວມເອົາຂອບເຂດແບບຈໍາລອງ Tesla ທັງຫມົດ, ປະມານ 765,000 ຍານພາຫະນະ.

El tesla autopilot ພາຍໃຕ້ໄຟອີກເທື່ອຫນຶ່ງ. ເວລານີ້ທຸກສິ່ງທຸກຢ່າງແມ່ນຮ້າຍແຮງກວ່າເກົ່າ. ອົງການຄຸ້ມຄອງຄວາມປອດໄພການຈະລາຈອນທາງຫຼວງແຫ່ງຊາດ (NHTSA) ໄດ້ເປີດການສືບສວນ. ຖະແຫຼງການຢ່າງເປັນທາງການກ່ຽວກັບຊອບແວຄວບຄຸມການເດີນເຮືອທີ່ສາມາດປັບຕົວໄດ້ຂອງ Tesla. ແຕ່ຫນ້າເສຍດາຍ, ນີ້ເກີດຂຶ້ນຫຼັງຈາກອຸປະຕິເຫດຫຼາຍຄັ້ງ. ແຕ່ດຽວນີ້ Tesla ກໍ່ມີບັນຫາກັບຜູ້ລ້ຽງ.

ລະດັບທັງຫມົດຂອງຮູບແບບຍີ່ຫໍ້ແມ່ນຂຶ້ນກັບການປຶກສາຫາລື

ດັ່ງນັ້ນສິ່ງທີ່ແນ່ນອນເຮັດໃຫ້ Feds ກັບ Tesla Autopilot? ແຕ່ຫນ້າເສຍດາຍ, ມີ​ອຸ​ປະ​ຕິ​ເຫດ​ຫຼາຍ​ຄັ້ງ​, 11 ຈະ​ເປັນ​ທີ່​ແນ່​ນອນ​ທີ່ NHSTA ກ່າວວ່າ Tesla ມີສ່ວນຮ່ວມ ແລະການຕອບໂຕ້ຄັ້ງທໍາອິດໃນຂະນະທີ່ Tesla Autopilot ມີການເຄື່ອນໄຫວ. ເຫັນໄດ້ຊັດເຈນ, NHSTA ບໍ່ໄດ້ໃຫ້ອະໄພພະນັກງານສຸກເສີນທີ່ປະທະກັບຍານພາຫະນະ "ຂັບລົດດ້ວຍຕົນເອງ" ຈົນກ່ວາມັນສົມຄວນຕາມກົດຫມາຍສໍາລັບພວກເຂົາທີ່ຈະບໍ່ເຮັດແນວນັ້ນ. ຢ່າງໃດກໍຕາມ, ໃນເວລາທີ່ມັນສະດວກສໍາລັບທ່ານ.

ພຶດຕິກໍານີ້ດຶງດູດຄວາມສົນໃຈຂອງ NHTSA. ແຕ່ຫນ້າເສຍດາຍ, ລາວການສືບສວນກວມເອົາບັນດາສາຍຂອງ Tesla, ປະມານ 765,000 ຍານພາຫະນະ.. ຢ່າງໃດກໍ່ຕາມ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະສັງເກດວ່າ Tesla, ແລະໂດຍການຂະຫຍາຍ Elon Musk, ບໍ່ມີຄວາມຜິດຈົນກ່ວາການພິສູດວ່າມີຄວາມຜິດ. ການສືບສວນແມ່ນດໍາເນີນຢູ່, ແຕ່ຄະນະກໍາມະການຄວາມປອດໄພການຂົນສົ່ງແຫ່ງຊາດ (NTSB) ໄດ້ແນະນໍາວ່າ NHTSA ຮຽກຮ້ອງໃຫ້ Tesla ຈໍາກັດພື້ນທີ່ທີ່ Tesla Autopilot ສາມາດນໍາໃຊ້ໄດ້.

Tesla Autopilot ຢ່າງຊັດເຈນຈະບໍ່ທົດແທນຄົນທີ່ແທ້ຈິງ

NTSB ໄດ້ຖືກຍິງໃສ່ Tesla ແລ້ວ, ໂດຍຕໍານິບໍລິສັດສໍາລັບອຸປະຕິເຫດອື່ນໆຈໍານວນຫຼາຍ. ຢ່າງໃດກໍ່ຕາມ, ຄວນສັງເກດວ່າ Autopilot ຂອງ Tesla ບໍ່ແມ່ນຜູ້ດຽວທີ່ຈະຕໍານິຕິຕຽນທີ່ນີ້. ປະຊາຊົນບໍ່ໄດ້ໃຊ້ຊອບແວເຄິ່ງອັດຕະໂນມັດຢ່າງມີຄວາມຮັບຜິດຊອບຫຼາຍ. ພວກເຂົາເຮັດທຸກຢ່າງຕັ້ງແຕ່ນອນຈົນເຖິງ. ຢ່າງໃດກໍຕາມ, ໃນກໍລະນີຫຼາຍທີ່ສຸດ, ຄົນເຫຼົ່ານີ້ຖືກລົງໂທດ. ໃນປັດຈຸບັນ NHTSA ກໍາລັງພະຍາຍາມກໍານົດວ່າ Tesla ແບ່ງປັນການຕໍານິສໍາລັບເລື່ອງນີ້ເຊັ່ນກັນ.

ວິທີການຫນຶ່ງຫຼືອື່ນ, ພວກເຂົາຄວນຈະ. ວັດທະນະທໍາໄດ້ພັດທະນາຮອບຕົວແບບ Tesla ທີ່ໄດ້ກາຍເປັນອັນຕະລາຍຫຼາຍ. ແລະຄວາມຈິງແມ່ນວ່າລົດໄດ້ຖືກສົ່ງເສີມເປັນບາງສິ່ງບາງຢ່າງອອກຈາກ iRobot ຫຼື Bladerunner ໃນຕົວຈິງແລ້ວພວກເຂົາບໍ່ແມ່ນ. Tesla ການຂັບລົດດ້ວຍຕົນເອງຢ່າງເຕັມທີ່ບໍ່ແມ່ນການຂັບລົດດ້ວຍຕົນເອງຢ່າງເຕັມທີ່. ນີ້ແມ່ນເວີຊັນເບຕ້າທີ່ດີທີ່ສຸດ. ກົງໄປກົງມາ, ປະຊາຊົນບໍ່ມີຄວາມຮັບຜິດຊອບພຽງພໍສໍາລັບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ແລະນັ້ນແມ່ນສິ່ງທີ່ເບິ່ງຄືວ່າໄດ້ກະຕຸ້ນການສືບສວນຂອງ NHTSA.

ຍີ່ຫໍ້ສາມາດຟື້ນຕົວຈາກນີ້ໄດ້ແນວໃດ?

ມັນເປັນທີ່ຊັດເຈນວ່າ Tesla ມີບັນຫາຮູບພາບໃນປັດຈຸບັນ. Tesla ຈໍາເປັນຕ້ອງເລີ່ມຕົ້ນດ້ວຍຄວາມໂປ່ງໃສບາງຢ່າງ. ການປ່ຽນຊື່ບາງອັນຈະເປັນການເລີ່ມຕົ້ນທີ່ດີ. "Tesla Autopilot" ເປັນການເຂົ້າໃຈຜິດບາງຢ່າງ. ຊອບແວຄວບຄຸມ cruise ປັບຕົວຂອງ GM "SuperCruise" ບໍ່ໄດ້ຫມາຍຄວາມວ່າການຂັບລົດອັດຕະໂນມັດ, ແຕ່ "Autopilot" ເຮັດ. ນີ້ແນ່ນອນວ່າຈະເປັນການເລີ່ມຕົ້ນ, ແຕ່ວ່າການປ່ຽນແປງທີ່ແທ້ຈິງຈະຕ້ອງເຫັນໄດ້ໃນສິ່ງທີ່ NHSTA ເວົ້າ.

********

-

-

ເພີ່ມຄວາມຄິດເຫັນ