เคล็ดลับการเข้ารหัสทำให้ปัญหายากๆ ง่ายขึ้นเล็กน้อย | นิตยสารควอนต้า

เคล็ดลับการเข้ารหัสทำให้ปัญหายากๆ ง่ายขึ้นเล็กน้อย | นิตยสารควอนต้า

เคล็ดลับการเข้ารหัสทำให้ปัญหายากๆ ง่ายขึ้นเล็กน้อย | นิตยสาร Quanta PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

บทนำ

วิธีที่ดีที่สุดในการแก้ปัญหายากๆ คืออะไร? นั่นคือคำถามที่เป็นหัวใจของสาขาย่อยของวิทยาการคอมพิวเตอร์ที่เรียกว่าทฤษฎีความซับซ้อนในการคำนวณ เป็นคำถามที่ตอบยาก แต่ลองพลิกดูแล้วจะง่ายขึ้น แนวทางที่แย่ที่สุดคือการลองผิดลองถูกเกือบทุกครั้ง ซึ่งเกี่ยวข้องกับการเสียบปลั๊กวิธีแก้ปัญหาที่เป็นไปได้จนกว่าจะได้ผล แต่สำหรับปัญหาบางอย่าง ดูเหมือนว่าไม่มีทางเลือกอื่นแล้ว แนวทางที่แย่ที่สุดก็คือแนวทางที่ดีที่สุดเช่นกัน

นักวิจัยสงสัยมานานแล้วว่าเป็นเช่นนั้นจริงหรือไม่ ราหุล อิลันโกนักศึกษาระดับบัณฑิตศึกษากำลังศึกษาทฤษฎีความซับซ้อนที่สถาบันเทคโนโลยีแมสซาชูเซตส์ “คุณสามารถถามว่า 'มีปัญหาหรือไม่ที่การเดาและตรวจสอบเหมาะสมที่สุด?'”

นักทฤษฎีความซับซ้อนได้ศึกษาปัญหาทางคอมพิวเตอร์มากมาย และแม้แต่ปัญหาที่ยากก็มักจะยอมรับขั้นตอนหรืออัลกอริธึมที่ชาญฉลาดบางประเภท ซึ่งทำให้การค้นหาวิธีแก้ปัญหาง่ายกว่าการลองผิดลองถูกเพียงเล็กน้อย ในบรรดาข้อยกเว้นบางประการเรียกว่าปัญหาการบีบอัด โดยมีเป้าหมายเพื่อค้นหาคำอธิบายที่สั้นที่สุดของชุดข้อมูล

แต่เมื่อเดือนพฤศจิกายนที่ผ่านมา มีนักวิจัย 2 กลุ่ม อิสระ ค้นพบ อัลกอริธึมอื่นสำหรับปัญหาการบีบอัด ซึ่งเร็วกว่าการตรวจสอบคำตอบที่เป็นไปได้ทั้งหมดเล็กน้อย แนวทางใหม่นี้ทำงานโดยการปรับอัลกอริทึมที่คิดค้นโดยนักเข้ารหัสเมื่อ 25 ปีที่แล้วเพื่อโจมตีปัญหาอื่น มีข้อจำกัดเพียงข้อเดียว นั่นคือ คุณต้องปรับแต่งอัลกอริทึมให้เหมาะกับขนาดของชุดข้อมูลของคุณ

“มันเป็นผลลัพธ์ที่สวยงามและสำคัญจริงๆ” กล่าว เอริค อัลเลนเดอร์นักวิทยาศาสตร์คอมพิวเตอร์เชิงทฤษฎีที่มหาวิทยาลัย Rutgers

การกำหนดความแข็ง

ผลลัพธ์ใหม่นี้เป็นผลลัพธ์ล่าสุดในการตรวจสอบคำถามที่ศึกษาครั้งแรกในสหภาพโซเวียต ก่อนที่จะมีทฤษฎีความซับซ้อนเกิดขึ้น “ก่อนที่ฉันจะเข้าเรียนในชั้นประถมศึกษา ผู้คนในรัสเซียต่างก็กำหนดสิ่งนี้ขึ้นมา” อัลเลนเดอร์กล่าว

ปัญหาการคำนวณเฉพาะที่นักวิจัยโซเวียตศึกษา เรียกว่าปัญหาขนาดวงจรขั้นต่ำ ก็คล้ายกับปัญหาที่นักออกแบบฮาร์ดแวร์คอมพิวเตอร์เผชิญอยู่ตลอดเวลา หากคุณได้รับรายละเอียดครบถ้วนแล้วว่าวงจรอิเล็กทรอนิกส์ควรทำงานอย่างไร คุณจะพบวงจรที่ง่ายที่สุดที่จะใช้งานได้หรือไม่ ไม่มีใครรู้วิธีการแก้ปัญหานี้หากไม่มี "perebor" ซึ่งเป็นคำภาษารัสเซียที่เทียบเท่ากับ "การค้นหาอย่างครบถ้วน"

ปัญหาขนาดวงจรขั้นต่ำเป็นตัวอย่างหนึ่งของปัญหาการบีบอัด คุณสามารถอธิบายพฤติกรรมของวงจรด้วยชุดบิตยาวๆ ได้แก่ 0 และ 1 จากนั้นถามว่ามีวิธีสร้างพฤติกรรมเดียวกันนั้นโดยใช้บิตน้อยลงหรือไม่ การตรวจสอบโครงร่างวงจรที่เป็นไปได้ทั้งหมดจะใช้เวลาเพิ่มขึ้นแบบทวีคูณตามจำนวนบิตในสตริง

การเติบโตแบบเอ็กซ์โปเนนเชียลประเภทนี้เป็นคุณลักษณะที่กำหนดปัญหาด้านการคำนวณอย่างหนัก แต่ปัญหายากๆ ไม่ใช่ทุกปัญหาจะยากเท่ากัน บางปัญหามีอัลกอริธึมที่เร็วกว่าการค้นหาแบบละเอียด แม้ว่ารันไทม์จะยังคงเพิ่มขึ้นแบบทวีคูณก็ตาม ในแง่สมัยใหม่ คำถามที่เกิดขึ้นคือมีอัลกอริธึมดังกล่าวสำหรับปัญหาการบีบอัดหรือไม่

ในปี 1959 นักวิจัยชื่อดังชื่อ Sergey Yablonsky อ้างว่าได้พิสูจน์ว่าการค้นหาอย่างละเอียดถี่ถ้วนเป็นวิธีเดียวที่จะแก้ปัญหาขนาดวงจรขั้นต่ำได้ แต่การพิสูจน์ของเขาทำให้เกิดช่องโหว่อยู่บ้าง นักวิจัยบางคนสังเกตเห็นข้อบกพร่องในขณะนั้น แต่ยาบลอนสกีมีอิทธิพลมากพอที่จะกีดกันคนอื่นๆ ส่วนใหญ่ไม่ให้ตอบคำถามนี้

ในทศวรรษต่อๆ มา มีนักวิจัยเพียงไม่กี่คนที่ศึกษาปัญหาการบีบอัด และคำถามเชิงอรรถส่วนใหญ่รู้จักกันในชื่อเชิงอรรถในประวัติศาสตร์ของทฤษฎีความซับซ้อน ความสนใจอย่างกว้างขวางต่อคำถามนี้เกิดขึ้นเมื่อไม่นานมานี้ หลังจากที่นักวิจัยค้นพบความเชื่อมโยงที่น่าสงสัยระหว่างปัญหาการบีบอัดและพื้นฐานของการเข้ารหัส

การจราจรทางเดียว

วิทยาการเข้ารหัสลับสมัยใหม่ใช้ปัญหาทางคอมพิวเตอร์อย่างหนักเพื่อปกป้องข้อความลับ แต่ความแข็งของการคำนวณจะมีประโยชน์ก็ต่อเมื่อมันไม่สมมาตร หากเป็นการยากที่จะถอดรหัสข้อความที่เข้ารหัส แต่ไม่ยากที่จะเข้ารหัสข้อความตั้งแต่แรก

ในทุกรูปแบบการเข้ารหัส ต้นกำเนิดของความไม่สมมาตรนี้คือวัตถุทางคณิตศาสตร์ที่เรียกว่าฟังก์ชันทางเดียว ซึ่งจะแปลงสตริงบิตอินพุตเป็นสตริงเอาต์พุตที่มีความยาวเท่ากัน เมื่อพิจารณาอินพุตของฟังก์ชันทางเดียว การคำนวณเอาต์พุตจึงเป็นเรื่องง่าย แต่เมื่อให้เอาต์พุตแล้ว เป็นการยากที่จะกลับฟังก์ชัน นั่นคือ การทำวิศวกรรมย้อนกลับและกู้คืนอินพุต

“นักวิทยาการเข้ารหัสลับต้องการฟังก์ชันทางเดียวที่สามารถคำนวณได้อย่างมีประสิทธิภาพมาก ซึ่งยากต่อการสลับกลับ” อัลเลนเดอร์กล่าว ดูเหมือนว่าฟังก์ชันทางคณิตศาสตร์จำนวนมากจะมีคุณสมบัตินี้ และความยากในการกลับฟังก์ชันเหล่านี้มีสาเหตุมาจากความยากที่เห็นได้ชัดในการแก้ปัญหาทางการคำนวณต่างๆ

น่าเสียดายที่นักเข้ารหัสไม่ทราบแน่ชัดว่าฟังก์ชันใดๆ เหล่านี้กลับด้านได้ยากจริงๆ หรือไม่ จริงๆ แล้วอาจเป็นไปได้ว่าฟังก์ชันทางเดียวที่แท้จริงไม่มีอยู่จริง ความไม่แน่นอนนี้ยังคงมีอยู่เพราะนักทฤษฎีความซับซ้อนมีอยู่ ต่อสู้ดิ้นรนเป็นเวลา 50 ปี เพื่อพิสูจน์ว่าปัญหาที่ดูเหมือนยากนั้นยากจริงๆ หากไม่เป็นเช่นนั้น และหากนักวิจัยค้นพบอัลกอริธึมที่รวดเร็วเป็นพิเศษสำหรับปัญหาเหล่านี้ นั่นอาจเป็นหายนะสำหรับการเข้ารหัส คล้ายกับการกำหนดเส้นทางรถเร่งความเร็วกะทันหันทั้งสองทิศทางบนถนนเดินรถทางเดียว

แม้ว่าความเข้าใจที่ครอบคลุมเกี่ยวกับความแข็งในการคำนวณจะยังคงเข้าใจยาก แต่นักเข้ารหัสลับก็มีความก้าวหน้าที่น่าตื่นเต้นไปสู่ทฤษฎีที่เป็นหนึ่งเดียวของฟังก์ชันทางเดียว ก้าวสำคัญก้าวหนึ่งเกิดขึ้นในปี 2020 เมื่อนักเข้ารหัสของมหาวิทยาลัยเทลอาวีฟ ราฟาเอลพาส และนักศึกษาปริญญาโทของเขา หยานยี่ หลิว พิสูจน์ว่าฟังก์ชันทางเดียวคือ เชื่อมต่ออย่างใกล้ชิด ถึงปัญหาการบีบอัดเฉพาะที่เรียกว่าปัญหาความซับซ้อนของ Kolmogorov ที่มีขอบเขตเวลา

หากปัญหาหนึ่งนั้นยากต่อการแก้ไขสำหรับอินพุตส่วนใหญ่ ผลลัพธ์ของ Pass และ Liu จะให้สูตรสำหรับวิธีสร้างฟังก์ชันทางเดียวที่พิสูจน์ได้ว่ายาก ซึ่งรับประกันว่าจะปลอดภัยแม้ว่าปัญหาการคำนวณอื่น ๆ จะง่ายกว่ามาก เกินกว่าที่นักวิจัยคาดไว้ แต่หากมีอัลกอริธึมที่รวดเร็วในการแก้ปัญหาความซับซ้อนของ Kolmogorov ที่มีขอบเขตเวลา การเข้ารหัสจะถึงวาระ และฟังก์ชันใดๆ ก็สามารถกลับด้านได้อย่างง่ายดาย ฟังก์ชันทางเดียวที่อิงตามความแข็งของปัญหานี้คือฟังก์ชันที่ปลอดภัยที่สุดเท่าที่จะเป็นไปได้ ซึ่งเป็นฟังก์ชันทางเดียวที่จะควบคุมฟังก์ชันทั้งหมด

การสร้างโครงสร้างข้อมูล

การค้นพบของ Pass และ Liu เป็นบทล่าสุดในงานวิจัยอันยาวนานที่ใช้ทฤษฎีความซับซ้อนเพื่อทำความเข้าใจพื้นฐานของการเข้ารหัสให้ดียิ่งขึ้น แต่ยังเสนอแนะวิธีที่จะกลับความสัมพันธ์นั้นด้วย ความเท่าเทียมกันระหว่างปัญหาความซับซ้อนของโคลโมโกรอฟที่มีขอบเขตเวลาและการผกผันของฟังก์ชันบ่งบอกว่าข้อมูลเชิงลึกเกี่ยวกับปัญหาใดปัญหาหนึ่งสามารถเปิดเผยข้อมูลเพิ่มเติมเกี่ยวกับปัญหาอื่น ๆ ได้ นักเข้ารหัสได้ศึกษาอัลกอริธึมการผกผันของฟังก์ชันมานานหลายทศวรรษเพื่อทำความเข้าใจจุดอ่อนของวิธีการเข้ารหัสให้ดีขึ้น นักวิจัยเริ่มสงสัยว่าอัลกอริธึมเหล่านั้นสามารถช่วยตอบคำถามเก่าแก่ในทฤษฎีความซับซ้อนได้หรือไม่

เช่นเดียวกับปัญหาทางการคำนวณอื่นๆ การผกผันของฟังก์ชันสามารถแก้ไขได้โดยการค้นหาอย่างละเอียดถี่ถ้วน เมื่อกำหนดสตริงเอาต์พุต เพียงเสียบทุกอินพุตที่เป็นไปได้เข้ากับฟังก์ชันจนกว่าคุณจะพบอินพุตที่ให้คำตอบที่ถูกต้อง

บทนำ

ในปี 1980 Martin Hellman นักวิทยาการเข้ารหัสลับเริ่มศึกษาว่าจะสามารถปรับปรุงให้ดีขึ้นได้หรือไม่ ซึ่งเป็นคำถามเดียวกับที่นักคณิตศาสตร์โซเวียตเคยถามเกี่ยวกับปัญหาการบีบอัดเมื่อหลายสิบปีก่อน คนเลว ค้นพบ ใช่ เป็นไปได้ ตราบใดที่คุณยินดีที่จะทำงานพิเศษบางอย่างล่วงหน้า โดยใช้วัตถุทางคณิตศาสตร์ที่เรียกว่าโครงสร้างข้อมูล

โครงสร้างข้อมูลโดยพื้นฐานแล้วคือตารางที่เก็บข้อมูลเกี่ยวกับฟังก์ชันที่จะกลับด้าน และการสร้างตารางนั้นจำเป็นต้องคำนวณผลลัพธ์ของฟังก์ชันสำหรับอินพุตที่เลือกอย่างมีกลยุทธ์ การคำนวณทั้งหมดเหล่านี้ "อาจใช้เวลานานมาก" กล่าว ไรอันวิลเลียมส์นักทฤษฎีความซับซ้อนของ MIT “แต่แนวคิดก็คือว่าสิ่งนี้จะทำเพียงครั้งเดียว ครั้งเดียวและตลอดไป” หากคุณกำลังพยายามกลับฟังก์ชันเดียวกันโดยให้เอาต์พุตต่างกัน เช่น เพื่อถอดรหัสข้อความต่างๆ จำนวนมากที่เข้ารหัสด้วยวิธีเดียวกัน การทำงานนี้ล่วงหน้าอาจคุ้มค่า

แน่นอนว่าการจัดเก็บข้อมูลพิเศษนั้นต้องใช้พื้นที่ ดังนั้นจงใช้กลยุทธ์นี้ให้ถึงขีดสุด และสุดท้ายคุณจะได้โปรแกรมที่รวดเร็วซึ่งไม่สามารถรองรับกับคอมพิวเตอร์เครื่องใดก็ได้ เฮลแมนได้ออกแบบโครงสร้างข้อมูลที่ชาญฉลาดซึ่งช่วยให้อัลกอริธึมของเขาสามารถสลับฟังก์ชันส่วนใหญ่ได้เร็วกว่าการค้นหาแบบละเอียดเล็กน้อยโดยไม่ต้องใช้พื้นที่มากเกินไป จากนั้นในปี 2000 นักเข้ารหัส Amos Fiat และ Moni Naor ขยาย ข้อโต้แย้งของเฮลล์แมนต่อฟังก์ชันทั้งหมด

หลังจากความก้าวหน้าของ Pass และ Liu ในปี 2020 ผลลัพธ์เก่าๆ เหล่านี้ก็มีความเกี่ยวข้องกันขึ้นมาใหม่ทันที อัลกอริธึมของ Fiat-Naor สามารถกลับฟังก์ชันต่างๆ ได้เร็วกว่าการค้นหาแบบละเอียดถี่ถ้วน มันสามารถแก้ไขปัญหาการบีบอัดได้หรือไม่?

นอกเครื่องแบบ

นักวิจัยกลุ่มแรกที่ตั้งคำถามคือนักทฤษฎีความซับซ้อน ราหุลสันธานัม ของมหาวิทยาลัยออกซ์ฟอร์ดและนักศึกษาระดับบัณฑิตศึกษาของเขา ฮันลิน เร็น- พวกเขาทำเช่นนั้นใน กระดาษ 2021 พิสูจน์ว่าปัญหาการบีบอัดและการผกผันของฟังก์ชันมีความเกี่ยวพันกันมากกว่าที่นักวิจัยตระหนัก

พาสและหลิวได้พิสูจน์ว่าถ้าปัญหาความซับซ้อนของโคลโมโกรอฟที่มีขอบเขตเวลานั้นยาก การผกผันของฟังก์ชันก็ต้องยากเช่นกัน และในทางกลับกัน แต่ปัญหาอาจเป็นเรื่องยากและยังคงยอมรับวิธีแก้ปัญหาที่ดีกว่าการค้นหาอย่างละเอียดถี่ถ้วนเล็กน้อย Santhanam และ Ren แสดงให้เห็นว่ามีความเชื่อมโยงอย่างใกล้ชิดระหว่างการค้นหาอย่างละเอียดถี่ถ้วนเป็นสิ่งจำเป็นสำหรับปัญหาหนึ่งหรือไม่ และจำเป็นสำหรับอีกปัญหาหนึ่งหรือไม่

ผลลัพธ์ของพวกเขามีผลกระทบที่แตกต่างกันสำหรับอัลกอริธึมสองประเภทกว้างๆ ที่นักวิจัยมักศึกษา เรียกว่าอัลกอริธึมแบบ "สม่ำเสมอ" และ "ไม่เหมือนกัน" อัลกอริธึมแบบสม่ำเสมอทำตามขั้นตอนเดียวกันสำหรับทุกอินพุต ตัวอย่างเช่น โปรแกรมแบบสม่ำเสมอสำหรับการเรียงลำดับรายการตัวเลข จะทำงานในลักษณะเดียวกันไม่ว่าจะมี 20 รายการในรายการหรือ 20,000 รายการ อัลกอริธึมที่ไม่สม่ำเสมอจะใช้ขั้นตอนที่แตกต่างกันสำหรับอินพุตที่มีความยาวต่างกันแทน

โครงสร้างข้อมูลที่ใช้โดยอัลกอริธึม Fiat-Naor ได้รับการปรับให้เหมาะกับฟังก์ชันเฉพาะเสมอ หากต้องการกลับฟังก์ชันที่แปลงสัญญาณสตริง 10 บิต คุณต้องมีโครงสร้างข้อมูลที่แตกต่างจากโครงสร้างที่คุณต้องใช้เพื่อกลับฟังก์ชันที่แปลงสัญญาณสตริง 20 บิต แม้ว่าการแปลงสัญญาณจะทำในลักษณะเดียวกันก็ตาม นั่นทำให้ Fiat-Naor เป็นอัลกอริธึมที่ไม่สม่ำเสมอ

ผลลัพธ์ของ Santhanam และ Ren ชี้ให้เห็นว่าอาจเป็นไปได้ที่จะแปลงอัลกอริทึม Fiat-Naor ให้เป็นอัลกอริทึมสำหรับแก้ไขปัญหาการบีบอัด แต่การปรับอัลกอริธึมจากปัญหาหนึ่งไปอีกปัญหาหนึ่งนั้นไม่ตรงไปตรงมา และพวกเขาไม่ได้ติดตามคำถามต่อไป

บทนำ

Pass สะดุดกับแนวคิดเดียวกันในอีกหนึ่งปีต่อมา หลังจากที่ Fiat พูดคุยเกี่ยวกับอัลกอริทึมแบบคลาสสิกในเวิร์กช็อปเพื่อเฉลิมฉลองการมีส่วนร่วมของ Naor ในด้านการเข้ารหัส “แนวคิดในการใช้ฟังก์ชันผกผันนี้อยู่ในใจฉันตั้งแต่นั้นมา” เขากล่าว ต่อมาเขาเริ่มทำงานกับปัญหานี้อย่างจริงจังกับนักวิจัยของมหาวิทยาลัยเทลอาวีฟ โนม มาเซอร์.

ในขณะเดียวกัน Ilango ได้รับแรงบันดาลใจในการโจมตีปัญหานี้หลังจากการหารือกับนักวิจัยคนอื่น ๆ รวมถึง Santhanam ในการเยี่ยมชมสถาบัน Simons สำหรับทฤษฎีคอมพิวเตอร์ในเบิร์กลีย์ แคลิฟอร์เนีย “มันมาจากบทสนทนาที่บังเอิญที่คุณแค่พูดไปเรื่อย” ซานธานัมกล่าว ต่อมา Ilango ได้เข้าร่วมกองกำลังกับวิลเลียมส์และ ชูอิจิ ฮิราฮาระนักทฤษฎีความซับซ้อนของสถาบันสารสนเทศแห่งชาติในโตเกียว

ส่วนที่ยากคือการหาวิธีฝังโครงสร้างข้อมูลที่เป็นหัวใจของอัลกอริธึม Fiat-Naor ลงในอัลกอริธึมที่ไม่เหมือนกันสำหรับการแก้ปัญหาการบีบอัด มีขั้นตอนมาตรฐานสำหรับการฝังแบบนั้น แต่จะทำให้อัลกอริธึมช้าลง ทำลายข้อได้เปรียบเหนือการค้นหาที่ละเอียดถี่ถ้วน ทั้งสองทีมพบวิธีที่ชาญฉลาดกว่าในการรวมโครงสร้างข้อมูล Fiat-Naor และได้รับอัลกอริธึมสำหรับปัญหาการบีบอัดที่ใช้ได้กับอินพุตทั้งหมดและยังคงเร็วกว่าการค้นหาแบบละเอียดถี่ถ้วน

รายละเอียดของอัลกอริธึมทั้งสองแตกต่างกันเล็กน้อย ผลงานของ Ilango และผู้เขียนร่วมของเขาเร็วกว่าการค้นหาแบบละเอียดถึงแม้ว่าคุณจะจำกัดการค้นหาให้เป็นไปได้ที่ง่ายที่สุด และใช้ได้กับปัญหาการบีบอัดทั้งหมด เช่น ความซับซ้อนของ Kolmogorov ที่มีขอบเขตเวลา ปัญหาขนาดวงจรขั้นต่ำ และอื่นๆ อีกมากมาย แต่แนวคิดหลักก็เหมือนกันสำหรับอัลกอริธึมทั้งสอง เทคนิคจากการเข้ารหัสได้พิสูจน์คุณค่าในโดเมนใหม่นี้

การบรรจบกันแบบผกผัน

การพิสูจน์ใหม่สำหรับอัลกอริธึมที่ไม่สม่ำเสมอทำให้เกิดคำถามที่เป็นธรรมชาติ: แล้วอัลกอริธึมที่เหมือนกันล่ะ? มีวิธีแก้ไขปัญหาการบีบอัดได้เร็วกว่าการค้นหาอย่างละเอียดถี่ถ้วนหรือไม่?

ผลลัพธ์ล่าสุดบอกเป็นนัยว่าอัลกอริธึมดังกล่าวจะเทียบเท่ากับอัลกอริธึมแบบเดียวกันสำหรับการกลับฟังก์ชันตามอำเภอใจ ซึ่งเป็นสิ่งที่นักเข้ารหัสค้นหาไม่ประสบผลสำเร็จมานานหลายทศวรรษ ด้วยเหตุนี้ นักวิจัยหลายคนจึงพบว่าไม่น่าจะเป็นไปได้

“ฉันคงจะแปลกใจมาก” สันทนามกล่าว “มันจะต้องมีแนวคิดใหม่โดยสิ้นเชิง”

แต่อัลเลนเดอร์กล่าวว่านักวิจัยไม่ควรมองข้ามความเป็นไปได้นี้ “สมมติฐานการทำงานที่ดีสำหรับผมคือ ถ้ามีวิธีทำอะไรที่ไม่เหมือนกัน ก็มีแนวโน้มว่าจะมีวิธีที่เหมือนกัน” เขากล่าว

ไม่ว่าจะด้วยวิธีใด งานนี้ทำให้นักทฤษฎีความซับซ้อนเพิ่งสนใจคำถามเก่าในวิทยาการเข้ารหัสลับ ยูวัล อิซายนักเข้ารหัสลับที่ Technion ในเมืองไฮฟา ประเทศอิสราเอล กล่าวว่านั่นคือสิ่งที่ทำให้น่าตื่นเต้นที่สุด

“ฉันดีใจมากที่ได้เห็นการมาบรรจบกันของความสนใจระหว่างชุมชนต่างๆ” เขากล่าว “ฉันคิดว่ามันดีสำหรับวิทยาศาสตร์”

ประทับเวลา:

เพิ่มเติมจาก ควอนทามากาซีน