The Might Be the Future of Selfies, Letting Your Friends

News

นับตั้งแต่มีกล้องปรากฏขึ้นครั้งแรกผู้คนต่างเล็งเลนส์มาที่ตัวเองเพื่อถ่ายภาพเซลฟี่ที่เรียกว่าคำนี้เป็นคำที่ถูกบัญญัติขึ้นครั้งแรกในปี 2545 ณ จุดนี้พวกเขาค้างชำระเป็นเวลานานสำหรับการอัปเกรดทีมนักวิจัยจึงได้สร้างสิ่งที่อาจเป็นไปได้ เซลฟี่ยุคใหม่: ง่ายต่อการจับภาพโมเดล 3 มิติของตัวคุณเองที่ขนานนามว่าเนิร์ฟฟี่ที่ให้คนอื่นเห็นสิ่งที่เกิดขึ้นรอบตัวคุณ

ทำไมเราถ่ายและแชร์ภาพเซลฟี่? มันเป็นอนิจจัง? ต้องการคำชมและการยอมรับจากเพื่อนร่วมงานของเราอย่างสิ้นหวังหรือไม่? ไม่ว่าจะด้วยเหตุผลใดสิ่งเหล่านี้เป็นตัวแทนของชีวิตของเราที่มีการควบคุมและดูแลอย่างรอบคอบ แต่ทำไมไม่แบ่งปันมากกว่านี้ล่ะ นักวิจัยจากมหาวิทยาลัยวอชิงตันและการวิจัยของ Google ได้คิดค้นวิธีสร้างภาพรวมของช่วงเวลาที่กำหนดให้ครอบคลุมมากขึ้น แทนที่จะดูเพียงแค่ภาพ 2 มิติเท่านั้น nerfies ช่วยให้ผู้ชมสามารถซูมและเลื่อนไปรอบ ๆ วัตถุในรูปแบบ 3 มิติได้ แต่ไม่ต้องใช้อุปกรณ์พิเศษใด ๆ แค่สมาร์ทโฟนที่ติดตั้งกล้องและพลังประมวลผลของ CPU

การถ่ายภาพฉากในรูปแบบ 3 มิติมักจะต้องใช้ฮาร์ดแวร์พิเศษที่มีเครื่องสแกน LIDAR (การตรวจจับแสงและระยะ) ที่ใช้เลเซอร์ในการวัดระยะทางไปยังวัตถุทำให้สามารถสร้างภาพ 3 มิติขึ้นมาใหม่ได้ สมาร์ทโฟนอย่าง iPhone 12 Pro และ 12 Pro Max มาพร้อมเซ็นเซอร์ LIDAR ในตัวแล้ว แต่อุปกรณ์เหล่านี้ไม่ได้ราคาถูกและเข้าถึงได้อย่างแน่นอน ในการสร้าง nerfie ผู้ใช้เพียงแค่ต้องบันทึกวิดีโอของตัวเองบนสมาร์ทโฟนจากหลาย ๆ มุมในกระบวนการที่ให้พวกเขาโบกมืออุปกรณ์ไปมาต่อหน้าพวกเขาในขณะที่มั่นใจว่าพวกเขาอยู่ในกรอบเสมอ

การสร้างแบบจำลอง 3 มิติจากข้อมูลวิดีโอนี้ใช้วิธีการที่เรียกว่า Neural Radiance Fields (หรือเรียกสั้น ๆ ว่า NeRF) ซึ่งถ่ายภาพหลายภาพของวัตถุจากมุมต่างๆและใช้ข้อมูลสองมิติทั้งหมดในการคำนวณและสร้างการแสดงสามมิติ ที่สามารถปรับเปลี่ยนและมองจากมุมมองที่แตกต่างกันได้ในภายหลัง ปัญหาเกี่ยวกับวิธี NeRF คือต้องการให้วัตถุที่ถูกจับอยู่นิ่งสนิทในระหว่างกระบวนการทั้งหมด สำหรับวัตถุที่ไม่มีชีวิตซึ่งไม่ใช่ปัญหา แต่สำหรับมนุษย์ที่เคลื่อนไหวอย่างละเอียดถี่ถ้วนวิธี NeRF มักใช้ประโยชน์จากอาร์เรย์กล้องขนาดใหญ่ที่ถ่ายภาพบุคคลจากหลายมุมพร้อมกัน แต่เช่นเดียวกับฮาร์ดแวร์ LIDAR อาร์เรย์กล้องอาจมีราคาแพงและยุ่งยาก

เพียงแค่ให้ใครสักคนโบกสมาร์ทโฟนไปมาต่อหน้าตัวเองในขณะที่ถ่ายวิดีโอเป็นวิธีที่ง่ายกว่ามากในการสร้างภาพนิ่งจากหลาย ๆ มุม แต่กระบวนการนี้อาจใช้เวลาไม่กี่วินาทีในการดำเนินการให้เสร็จสิ้นและนั่นหมายความว่าวัตถุเคลื่อนไหวอยู่ตลอดเวลา แม้จะพยายามอย่างเต็มที่ที่จะนิ่งที่สุดเท่าที่จะทำได้ ในการแก้ปัญหานี้ทีมวิจัยได้พัฒนาวิธีการใหม่ที่เรียกว่า Deformable Neural Radiance Fields (หรือเรียกสั้น ๆ ว่า D-NeRF) ซึ่งสามารถเปรียบเทียบเฟรมเพื่อกำหนดว่าวัตถุเคลื่อนที่ไปมากน้อยเพียงใดจากนั้นจึงคำนวณความผิดปกติที่จำเป็นโดยอัตโนมัติ เพื่อให้สามารถปรับข้อมูลภาพสองมิติที่ไม่สมบูรณ์ที่แยกออกมาและยังคงใช้เพื่อสร้างแบบจำลอง 3 มิติที่ถูกต้องและโต้ตอบได้

วันหนึ่งสมมติว่าพวกเด็กเนิร์ดจับได้คนที่ดูรูปอาหารสุดหรูที่แชร์บนอินสตาแกรมอาจสามารถมองไปรอบ ๆ และตรวจสอบร้านอาหารได้ หรือหากแฟชั่นนิสต้าสมัครเล่นแชร์ภาพตัวเองที่กำลังลองเสื้อใหม่คนอื่น ๆ ก็จะสามารถปรับตำแหน่งของกล้องเพื่อดูกางเกงที่เข้ากันได้ เป็นเทคโนโลยีที่อาจให้มุมมองใหม่ทั้งหมดเกี่ยวกับโซเชียลมีเดีย แต่ในขณะเดียวกันเนื่องจากพวกเราหลายคนอาจใช้วิดีโอคอลในขณะที่แอบสวมชุดนอนใต้โต๊ะทำงานของเราบางทีเด็กเนิร์ดอาจจะมองว่าชีวิตของเรานั้นมีการรุกรานเล็กน้อยเกินไป เพื่อความสะดวกสบาย
Tags

Post a Comment

0Comments
Post a Comment (0)
Your Responsive Ads code (Google 1)
Your Responsive Ads code (Google 02)

#buttons=(Accept !) #days=(20)

Our website uses cookies to enhance your experience. Learn More
Accept !