ລະບົບ CSAM ຂອງ Apple ຖືກຫລອກລວງ, ແຕ່ບໍລິສັດມີການປົກປ້ອງສອງຢ່າງ

ອັບເດດ: Apple ໄດ້ກ່າວເຖິງການກວດສອບຄັ້ງທີສອງຂອງເຊີບເວີ, ແລະບໍລິສັດວິໄສທັດຄອມພິວເຕີມືອາຊີບໄດ້ອະທິບາຍຄວາມເປັນໄປໄດ້ຂອງສິ່ງທີ່ນີ້ສາມາດຖືກອະທິບາຍໄວ້ໃນ "ວິທີການກວດສອບທີສອງອາດຈະເຮັດວຽກ" ຂ້າງລຸ່ມນີ້.
ຫຼັງຈາກທີ່ຜູ້ພັດທະນາໄດ້ປ່ຽນຊິ້ນສ່ວນທີ່ເຮັດດ້ວຍເຄື່ອງຈັກຂອງມັນ, ຮຸ່ນຕົ້ນຂອງລະບົບ Apple CSAM ໄດ້ຖືກຫຼອກລວງຢ່າງມີປະສິດທິພາບເພື່ອເຮັດເຄື່ອງຫມາຍຮູບພາບທີ່ບໍ່ບໍລິສຸດ.ຢ່າງໃດກໍຕາມ, Apple ໄດ້ກ່າວວ່າມັນມີການປົກປ້ອງເພີ່ມເຕີມເພື່ອປ້ອງກັນບໍ່ໃຫ້ເຫດການນີ້ເກີດຂຶ້ນໃນຊີວິດຈິງ.
ການພັດທະນາຫລ້າສຸດເກີດຂຶ້ນຫຼັງຈາກ NeuralHash algorithm ໄດ້ຖືກຈັດພີມມາຢູ່ໃນເວັບໄຊທ໌ນັກພັດທະນາແຫຼ່ງເປີດ GitHub, ທຸກຄົນສາມາດທົດລອງກັບມັນ ...
ລະບົບ CSAM ທັງໝົດເຮັດວຽກໂດຍການນໍາເຂົ້າຖານຂໍ້ມູນຂອງອຸປະກອນການລ່ວງລະເມີດທາງເພດເດັກທີ່ຮູ້ຈັກຈາກອົງການຈັດຕັ້ງເຊັ່ນ: ສູນແຫ່ງຊາດສໍາລັບເດັກນ້ອຍທີ່ຂາດຫາຍໄປ ແລະຖືກຂູດຮີດ (NCMEC).ຖານຂໍ້ມູນແມ່ນສະຫນອງໃຫ້ໃນຮູບແບບຂອງ hashes ຫຼື fingerprints ດິຈິຕອນຈາກຮູບພາບ.
ເຖິງແມ່ນວ່າຍັກໃຫຍ່ເຕັກໂນໂລຢີສ່ວນໃຫຍ່ຈະສະແກນຮູບພາບທີ່ອັບໂຫລດໃນຄລາວ, Apple ໃຊ້ NeuralHash algorithm ໃນ iPhone ຂອງລູກຄ້າເພື່ອສ້າງຄ່າ hash ຂອງຮູບທີ່ເກັບໄວ້, ແລະຫຼັງຈາກນັ້ນປຽບທຽບມັນກັບສໍາເນົາດາວໂຫລດຂອງຄ່າ CSAM hash.
ມື້ວານນີ້, ນັກພັດທະນາໄດ້ອ້າງວ່າໄດ້ reverse engineered algorithm ຂອງ Apple ແລະປ່ອຍລະຫັດກັບ GitHub - ການຮຽກຮ້ອງນີ້ໄດ້ຖືກຢືນຢັນຢ່າງມີປະສິດທິພາບໂດຍ Apple.
ພາຍໃນສອງສາມຊົ່ວໂມງຫຼັງຈາກ GitHib ໄດ້ຖືກປ່ອຍອອກມາ, ນັກຄົ້ນຄວ້າໄດ້ປະສົບຜົນສໍາເລັດໃນການນໍາໃຊ້ສູດການຄິດໄລ່ເພື່ອສ້າງຜົນບວກທີ່ບໍ່ຖືກຕ້ອງໂດຍເຈດຕະນາ - ສອງຮູບພາບທີ່ແຕກຕ່າງກັນຫມົດທີ່ສ້າງມູນຄ່າ hash ດຽວກັນ.ອັນນີ້ເອີ້ນວ່າການປະທະກັນ.
ສໍາລັບລະບົບດັ່ງກ່າວ, ມີຄວາມສ່ຽງຕໍ່ການ collision ສະເຫມີ, ເພາະວ່າ hash ແມ່ນການເປັນຕົວແທນຂອງຮູບພາບທີ່ງ່າຍດາຍຫຼາຍ, ແຕ່ວ່າມັນເປັນເລື່ອງແປກທີ່ຜູ້ໃດຜູ້ຫນຶ່ງສາມາດສ້າງຮູບພາບໄດ້ໄວ.
ການປະທະກັນໂດຍເຈດຕະນາຢູ່ທີ່ນີ້ແມ່ນພຽງແຕ່ຫຼັກຖານສະແດງແນວຄວາມຄິດ.ນັກພັດທະນາບໍ່ມີການເຂົ້າເຖິງຖານຂໍ້ມູນ CSAM hash, ເຊິ່ງຮຽກຮ້ອງໃຫ້ມີການສ້າງຜົນບວກທີ່ບໍ່ຖືກຕ້ອງໃນລະບົບເວລາທີ່ແທ້ຈິງ, ແຕ່ມັນພິສູດວ່າການໂຈມຕີການປະທະກັນແມ່ນຂ້ອນຂ້າງງ່າຍໃນຫຼັກການ.
Apple ໄດ້ຢືນຢັນຢ່າງມີປະສິດທິພາບວ່າ algorithm ແມ່ນພື້ນຖານຂອງລະບົບຂອງຕົນເອງ, ແຕ່ບອກກັບ motherboard ວ່ານີ້ບໍ່ແມ່ນຮຸ່ນສຸດທ້າຍ.ບໍລິສັດຍັງໄດ້ກ່າວວ່າມັນບໍ່ເຄີຍມີຈຸດປະສົງທີ່ຈະຮັກສາຄວາມລັບ.
Apple ບອກ Motherboard ໃນອີເມລ໌ວ່າສະບັບທີ່ວິເຄາະໂດຍຜູ້ໃຊ້ໃນ GitHub ແມ່ນຮຸ່ນທົ່ວໄປ, ບໍ່ແມ່ນຮຸ່ນສຸດທ້າຍທີ່ໃຊ້ໃນການກວດສອບ iCloud Photo CSAM.Apple ກ່າວວ່າມັນຍັງເປີດເຜີຍສູດການຄິດໄລ່.
"ລະບົບ NeuralHash algorithm [... ] ແມ່ນສ່ວນຫນຶ່ງຂອງລະຫັດລະບົບປະຕິບັດການທີ່ລົງນາມ [ແລະ] ນັກຄົ້ນຄວ້າຄວາມປອດໄພສາມາດກວດສອບໄດ້ວ່າພຶດຕິກໍາຂອງມັນສອດຄ່ອງກັບຄໍາອະທິບາຍ," ເອກະສານ Apple ຂຽນ.
ບໍລິສັດກ່າວຕໍ່ໄປວ່າມີສອງຂັ້ນຕອນເພີ່ມເຕີມ: ແລ່ນລະບົບການຈັບຄູ່ (ລັບ) ຂັ້ນສອງໃນເຄື່ອງແມ່ຂ່າຍຂອງຕົນເອງ, ແລະການທົບທວນຄູ່ມື.
Apple ຍັງລະບຸວ່າຫຼັງຈາກຜູ້ໃຊ້ຜ່ານເກນ 30 ການແຂ່ງຂັນ, algorithm ທີ່ບໍ່ແມ່ນສາທາລະນະທີສອງທີ່ເຮັດວຽກຢູ່ໃນເຄື່ອງແມ່ຂ່າຍຂອງ Apple ຈະກວດສອບຜົນໄດ້ຮັບ.
"Hash ເອກະລາດນີ້ໄດ້ຖືກເລືອກເພື່ອປະຕິເສດຄວາມເປັນໄປໄດ້ທີ່ NeuralHash ຜິດພາດກົງກັບຖານຂໍ້ມູນ CSAM ທີ່ຖືກເຂົ້າລະຫັດໃນອຸປະກອນເນື່ອງຈາກການແຊກແຊງທາງກົງກັນຂ້າມຂອງຮູບພາບທີ່ບໍ່ແມ່ນ CSAM ແລະເກີນຂອບເຂດທີ່ກົງກັນ."
Brad Dwyer ຂອງ Roboflow ໄດ້ພົບເຫັນວິທີທີ່ຈະຈໍາແນກໄດ້ຢ່າງງ່າຍດາຍລະຫວ່າງສອງຮູບພາບທີ່ຈັດພີມມາເປັນຫຼັກຖານສະແດງແນວຄວາມຄິດສໍາລັບການໂຈມຕີ collision.
ຂ້າພະເຈົ້າຢາກຮູ້ຢາກເຫັນວ່າຮູບພາບເຫຼົ່ານີ້ເບິ່ງຢູ່ໃນ CLIP ຂອງ OpenAI ເຄື່ອງສະກັດຄຸນສົມບັດທາງປະສາດທີ່ຄ້າຍຄືກັນແຕ່ແຕກຕ່າງກັນແນວໃດ.CLIP ເຮັດວຽກຄ້າຍຄືກັນກັບ NeuralHash;ມັນໃຊ້ເວລາຮູບພາບແລະນໍາໃຊ້ເຄືອຂ່າຍ neural ເພື່ອສ້າງຊຸດຂອງ vectors ຄຸນນະສົມບັດທີ່ແຜນທີ່ກັບເນື້ອໃນຂອງຮູບພາບ.
ແຕ່ເຄືອຂ່າຍຂອງ OpenAI ແມ່ນແຕກຕ່າງກັນ.ມັນເປັນຮູບແບບທົ່ວໄປທີ່ສາມາດສ້າງແຜນທີ່ລະຫວ່າງຮູບພາບແລະຂໍ້ຄວາມ.ນີ້ຫມາຍຄວາມວ່າພວກເຮົາສາມາດນໍາໃຊ້ມັນເພື່ອສະກັດຂໍ້ມູນຮູບພາບທີ່ມະນຸດເຂົ້າໃຈໄດ້.
ຂ້ອຍແລ່ນຮູບການປະທະກັນສອງອັນຂ້າງເທິງຜ່ານ CLIP ເພື່ອເບິ່ງວ່າມັນຖືກຫຼອກລວງຄືກັນ.ຄໍາຕອບສັ້ນໆແມ່ນ: ບໍ່.ນີ້ຫມາຍຄວາມວ່າ Apple ຄວນສາມາດນໍາໃຊ້ເຄືອຂ່າຍສະກັດຄຸນສົມບັດທີສອງ (ເຊັ່ນ: CLIP) ກັບຮູບພາບ CSAM ທີ່ກວດພົບເພື່ອກໍານົດວ່າມັນເປັນຂອງແທ້ຫຼືປອມ.ມັນເປັນການຍາກຫຼາຍທີ່ຈະສ້າງຮູບພາບທີ່ຫລອກລວງສອງເຄືອຂ່າຍໃນເວລາດຽວກັນ.
ສຸດທ້າຍ, ດັ່ງທີ່ໄດ້ກ່າວມາກ່ອນຫນ້ານີ້, ຮູບພາບຕ່າງໆໄດ້ຖືກທົບທວນຄືນດ້ວຍຕົນເອງເພື່ອຢືນຢັນວ່າພວກເຂົາເປັນ CSAM.
ນັກຄົ້ນຄວ້າດ້ານຄວາມປອດໄພກ່າວວ່າຄວາມສ່ຽງທີ່ແທ້ຈິງພຽງແຕ່ຜູ້ທີ່ຕ້ອງການທີ່ຈະລົບກວນ Apple ສາມາດສະຫນອງຂໍ້ດີທີ່ບໍ່ຖືກຕ້ອງກັບຜູ້ທົບທວນຂອງມະນຸດ.
"ແທ້ຈິງແລ້ວ Apple ອອກແບບລະບົບນີ້, ດັ່ງນັ້ນຟັງຊັນ hash ບໍ່ຈໍາເປັນຕ້ອງຖືກເກັບໄວ້ເປັນຄວາມລັບ, ເພາະວ່າສິ່ງດຽວທີ່ທ່ານສາມາດເຮັດໄດ້ກັບ CSAM ທີ່ບໍ່ແມ່ນ CSAM ແມ່ນການລົບກວນທີມງານຕອບສະຫນອງຂອງ Apple ກັບຮູບພາບຂີ້ເຫຍື້ອຈົນກ່ວາພວກເຂົາປະຕິບັດການກັ່ນຕອງເພື່ອລົບລ້າງ. ການວິເຄາະຂີ້ເຫຍື້ອເຫຼົ່ານັ້ນຢູ່ໃນທໍ່ນັ້ນແມ່ນຜົນບວກທີ່ບໍ່ຖືກຕ້ອງ, "Nicholas Weaver, ນັກຄົ້ນຄວ້າອາວຸໂສຂອງສະຖາບັນວິທະຍາສາດຄອມພິວເຕີສາກົນທີ່ມະຫາວິທະຍາໄລຄາລິຟໍເນຍ, Berkeley, ບອກກັບ Motherboard ໃນການສົນທະນາອອນໄລນ໌.
ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​ເປັນ​ບັນຫາ​ທີ່​ມີ​ຄວາມ​ເປັນ​ຫ່ວງ​ທີ່​ເພີ່ມ​ຂຶ້ນ​ໃນ​ໂລກ​ທຸກ​ມື້​ນີ້.ປະຕິບັດຕາມບົດລາຍງານທັງຫມົດທີ່ກ່ຽວຂ້ອງກັບຄວາມເປັນສ່ວນຕົວ, ຄວາມປອດໄພ, ແລະອື່ນໆໃນຄໍາແນະນໍາຂອງພວກເຮົາ.
Ben Lovejoy ເປັນນັກຂຽນດ້ານວິຊາການອັງກິດແລະບັນນາທິການ EU ສໍາລັບ 9to5Mac.ລາວເປັນທີ່ຮູ້ຈັກສໍາລັບຄໍລໍາແລະບົດຄວາມ diary ຂອງລາວ, ຄົ້ນຫາປະສົບການຂອງລາວກັບຜະລິດຕະພັນ Apple ໃນໄລຍະເວລາເພື່ອໃຫ້ມີການທົບທວນຄືນທີ່ສົມບູນແບບຫຼາຍຂຶ້ນ.ລາວຍັງຂຽນນະວະນິຍາຍ, ມີສອງເລື່ອງທີ່ຕື່ນເຕັ້ນທາງດ້ານເຕັກນິກ, ຮູບເງົາວິທະຍາສາດສັ້ນສອງສາມເລື່ອງແລະ rom-com!


ເວລາປະກາດ: ສິງຫາ-20-2021