ReadyPlanet.com


กำลังพยายามเปลี่ยนแนวทางการทำสงคราม


 ในสัปดาห์ที่สามของสงครามรัสเซียในยูเครน Volodymyr Zelensky ปรากฏตัวในวิดีโอสวมเสื้อสีเขียวเข้มพูดช้าๆและจงใจขณะยืนอยู่ด้านหลังแท่นประธานาธิบดีสีขาวซึ่งมีตราแผ่นดินของประเทศของเขา ยกเว้นหัวของเขา ร่างกายของประธานาธิบดียูเครนแทบจะไม่ขยับในขณะที่เขาพูด เสียงของเขาฟังดูบิดเบี้ยวและเกือบจะเป็นกรวดในขณะที่เขาดูเหมือนจะบอกให้ชาวยูเครนยอมจำนนต่อรัสเซีย“ฉันขอให้คุณวางอาวุธและกลับไปหาครอบครัวของคุณ” เขาพูดเป็นภาษายูเครนใน คลิป ซึ่งปลอม “สงครามครั้งนี้ไม่คุ้มที่จะตาย ฉันแนะนำให้คุณมีชีวิตอยู่ต่อไป และฉันก็จะทำแบบเดียวกัน”เมื่อห้าปีที่แล้ว ไม่มีใครเคยได้ยินแม้แต่ Deepfakes ไฟล์วิดีโอและเสียงที่ดูน่าเชื่อแต่เป็นเท็จซึ่งสร้างขึ้นด้วยความช่วยเหลือของปัญญาประดิษฐ์ ตอนนี้ พวกเขากำลังถูกใช้เพื่อส่งผลกระทบต่อการทำสงคราม นอกจากวิดีโอปลอมของ Zelesnky ซึ่งแพร่ระบาดไปเมื่อสัปดาห์ที่แล้ว ยังมีวิดีโอ Deepfake ที่เผยแพร่อย่างกว้างขวางอีกเรื่องหนึ่งซึ่งแสดงภาพประธานาธิบดีวลาดิมีร์ ปูตินของรัสเซียที่คาดว่าจะประกาศสันติภาพในสงครามยูเครนผู้เชี่ยวชาญด้านการบิดเบือนข้อมูล และการตรวจสอบเนื้อหาเกี่ยวกับศักยภาพในการแพร่กระจายคำโกหกและความโกลาหลผ่าน Deepfakes โดยเฉพาะอย่างยิ่งเมื่อพวกเขาดูสมจริงมากขึ้น โดยทั่วไปแล้ว Deepfakes ได้รับการปรับปรุงอย่างมากในระยะเวลาอันสั้น จอมปลอมที่พลิกเหรียญและคัฟเวอร์เพลงของ Dave Matthews Band เมื่อปีที่แล้ว แสดงให้เห็นว่า deepfakes นั้นดูเหมือนจริงอย่างน่าเชื่อได้อย่างไรวิดีโอล่าสุดของ Zelensky หรือ Putin ไม่ได้ใกล้เคียงกับมูลค่าการผลิตที่สูงของ TikTok Tom Cruise (สิ่งหนึ่งคือความละเอียดต่ำอย่างเห็นได้ชัด ซึ่งเป็นกลวิธีทั่วไปในการซ่อนข้อบกพร่อง) แต่ ผู้เชี่ยวชาญยังคงมองว่าวิดีโอเหล่านี้เป็นอันตราย นั่นเป็นเพราะพวกเขาแสดงความเร็วของแสงซึ่งการบิดเบือนทางเทคโนโลยีขั้นสูงสามารถแพร่กระจายไปทั่วโลกได้ เมื่อพวกเขากลายเป็นเรื่องธรรมดามากขึ้น วิดีโอ Deepfake ทำให้การบอกความจริงจากนิยายออนไลน์ยากขึ้น และยิ่งทำมากขึ้นในช่วงสงครามที่แฉออนไลน์และเต็มไปด้วยข้อมูลที่ผิด แม้แต่ของปลอมที่ไม่ดีก็เสี่ยงที่จะทำให้น้ำขุ่นมัวไปอีกWael Abd-Almageed รองศาสตราจารย์ด้านการวิจัยที่ University of Southern California และผู้ก่อตั้ง Visual Intelligence and Multimedia Analytics Laboratory ของโรงเรียนกล่าวว่า "เมื่อเส้นนี้ถูกกัดเซาะ ความจริงก็ไม่มีอยู่จริง" “ถ้าเห็นอะไรแล้วไม่เชื่ออีก ทุกอย่างก็กลายเป็นเท็จ ไม่ใช่ว่าทุกอย่างจะกลายเป็นจริง แค่เราจะหมดความมั่นใจในทุกสิ่ง”ย้อนกลับไปในปี 2019 มีความกังวลว่า Deepfakes จะมีอิทธิพลต่อการเลือกตั้งประธานาธิบดีสหรัฐฯ ในปี 2020 ซึ่งรวมถึงจาก Dan Coats ในขณะนั้นที่ดำรงตำแหน่งผู้อำนวยการหน่วยข่าวกรองแห่งชาติของสหรัฐฯ แต่Siwei Lyu ผู้อำนวยการห้องปฏิบัติการคอมพิวเตอร์วิทัศน์และแมชชีนเลิร์นนิงแห่งมหาวิทยาลัยอัลบานีคิดว่าเป็นเพราะเทคโนโลยี "ยังไม่ถึงที่นั่น" การสร้าง Deepfake ที่ดีไม่ใช่เรื่องง่าย ซึ่งต้องทำให้สัญญาณชัดเจนว่าวิดีโอถูกแก้ไขให้เรียบ (เช่น ภาพสั่นไหวที่ดูแปลกตารอบๆ กรอบใบหน้าของบุคคล) และทำให้ดูเหมือนบุคคลใน วิดีโอกำลังพูดในสิ่งที่พวกเขาดูเหมือนจะพูด (ไม่ว่าจะผ่านทางเสียงจริงในเวอร์ชัน AI หรือนักพากย์ที่น่าเชื่อ)ตอนนี้ การทำ Deepfake ให้ดีขึ้นนั้นง่ายกว่า แต่ที่สำคัญกว่านั้นคือ สถานการณ์การใช้งานต่างกัน ความจริงที่ว่าพวกเขากำลังถูกใช้เพื่อพยายามโน้มน้าวผู้คนในช่วงสงครามนั้นเป็นอันตรายอย่างยิ่ง ผู้เชี่ยวชาญกล่าวกับ CNN Business เพียงเพราะความสับสนที่พวกเขาหว่านลงไปอาจเป็นอันตรายได้ภายใต้สถานการณ์ปกติ Lyu กล่าวว่า Deepfakes อาจไม่ส่งผลกระทบมากนักนอกจากการดึงความสนใจและการดึงความสนใจทางออนไลน์ “แต่ในสถานการณ์วิกฤต ระหว่างสงครามหรือภัยพิบัติระดับชาติ เมื่อผู้คนไม่สามารถคิดอย่างมีเหตุผลจริงๆ และพวกเขาก็มีสมาธิสั้นมากเท่านั้น และพวกเขาเห็นอะไรแบบนี้ เมื่อนั้นมันจะกลายเป็นปัญหา” เขาเพิ่ม.การกำจัดข้อมูลที่ผิดโดยทั่วไปกลายเป็นเรื่องที่ซับซ้อนมากขึ้นในช่วงสงครามในยูเครน การรุกรานประเทศของรัสเซียนั้นมาพร้อมกับข้อมูลแบบเรียลไทม์ที่พุ่งชนแพลตฟอร์มโซเชียล เช่น Twitter, Facebook, Instagram และ TikTok ส่วนใหญ่เป็นเรื่องจริง แต่บางส่วนเป็นของปลอมหรือทำให้เข้าใจผิด ลักษณะที่มองเห็นได้ของสิ่งที่ถูกแบ่งปัน ควบคู่ไปกับอารมณ์และอวัยวะภายในที่มักเกิดขึ้น อาจ

Nina Schick ผู้เขียน "Deepfakes: The Coming Infocalypse" มองว่า Deepfakes เหมือนกับ Zelensky และ Putin เป็นสัญญาณของปัญหาการบิดเบือนข้อมูลที่มีขนาดใหญ่กว่ามากในโลกออนไลน์ ซึ่งเธอคิดว่าบริษัทโซเชียลมีเดียไม่ได้ทำมากพอที่จะแก้ปัญหา เธอแย้งว่าคำตอบจากบริษัทต่างๆ เช่น Facebook ซึ่งได้ลบวิดีโอ Zelensky ออกไปแล้ว มักเป็น "ใบมะเดื่อ"“คุณกำลังพูดถึงวิดีโอเรื่องหนึ่ง” เธอกล่าว ปัญหาใหญ่ยังคงอยู่ในขณะที่ Deepfakes ดีขึ้น นักวิจัยและบริษัทต่างๆ ก็พยายามติดตามเครื่องมือต่างๆ เพื่อตรวจจับพวกมันAbd-Almageed และ Lyu ใช้อัลกอริธึมในการตรวจจับของปลอม โซลูชันของ Lyu ชื่อที่ร่าเริง ทำให้ทุกคนสามารถอัปโหลดวิดีโอเพื่อตรวจสอบความถูกต้องได้ แม้ว่าเขาจะตั้งข้อสังเกตว่าอาจใช้เวลาสองสามชั่วโมงกว่าจะได้ผลลัพธ์ และบางบริษัท เช่น Zemana ผู้ให้บริการซอฟต์แวร์ความปลอดภัยทางไซเบอร์ กำลังพัฒนาซอฟต์แวร์ของตนเองเช่นกันอย่างไรก็ตาม มีปัญหากับการตรวจจับอัตโนมัติ เช่น การตรวจจับจะยากขึ้นเมื่อ Deepfakes พัฒนาขึ้น ตัวอย่างเช่นในปี 2018 Lyu ได้พัฒนาวิธีการระบุวิดีโอ Deepfake โดยการติดตามความไม่สอดคล้องกันในลักษณะที่บุคคลในวิดีโอกะพริบ ไม่ถึงหนึ่งเดือนต่อมา มีคนสร้าง Deepfake พร้อมกับกระพริบตาอย่างสมจริงLyu เชื่อว่าในที่สุดผู้คนจะหยุดวิดีโอดังกล่าวได้ดีกว่าซอฟต์แวร์ ในที่สุดเขาก็อยากจะเห็น (และสนใจที่จะช่วยเหลือด้วย) โปรแกรมนักล่าเงินรางวัลแบบ deepfake ปรากฏขึ้น ที่ซึ่งผู้คนได้รับเงินจากการรูทพวกเขาทางออนไลน์ (ในสหรัฐอเมริกา ยังมีการออกกฎหมายเพื่อแก้ไขปัญหา เช่นที่ห้ามไม่ให้เผยแพร่วิดีโอหลอกลวงหรือเสียงของผู้สมัครทางการเมืองภายใน 60 วันหลังการเลือกตั้ง)“เราจะเห็นสิ่งนี้มากขึ้น และการพึ่งพาบริษัทแพลตฟอร์มอย่าง Google, Facebook, Twitter อาจไม่เพียงพอ” เขากล่าว "ไม่มีอะไรดีไปกว่าสายตามนุษย์เลย"


มาสนุกกับ สล็อตออนไลน์ วันนี้สายฟรีห้ามพลาด


ผู้ตั้งกระทู้ bm :: วันที่ลงประกาศ 2022-03-29 20:35:24 IP : 1.47.149.0


แสดงความคิดเห็น
ความคิดเห็น *
ผู้แสดงความคิดเห็น  *
อีเมล 
ไม่ต้องการให้แสดงอีเมล



Copyright © 2010 All Rights Reserved.