Trong các hệ thống thử nghiệm ban đầu, các qubit đã được điều chỉnh riêng lẻ để cải thiện hiệu suất. Độ phức tạp và chi phí khiến điều này không thực tế ở quy mô lớn hơn, dẫn đến việc theo đuổi các thành phần đáng tin cậy hơn, một điều sẽ đòi hỏi những cải tiến ổn định trong sản xuất cũng như những đột phá mới trong vật liệu. Google cũng cho biết họ nhắm mục tiêu giảm chi phí linh kiện 10 lần, để đạt được mục tiêu chi phí 1 tỷ USD cho những cỗ máy quy mô lớn.
Các công ty nói rằng hệ thống của họ sẽ có thể dung nạp một số lượng không đáng kể khiếm khuyết trong các qubit nhờ một kỹ thuật gọi là sửa lỗi (error correction). Kỹ thuật này hoạt động bằng cách sao chép dữ liệu giữa một số qubit, để backup dữ liệu trong trường hợp đọc vị trí qubit bị lỗi.
Tính đến nay, mới chỉ có Google đã chứng minh được kỹ thuật để một chip lượng tử có khả năng thực hiện tự sửa lỗi khi kích thước của nó tăng lên. Theo Kelly, bất kỳ công ty nào cố gắng mở rộng quy mô mà không đạt đến điểm này trước sẽ kết thúc bằng việc “một máy móc rất đắt tiền tạo ra toàn nhiễu, tiêu thụ điện năng và nhiều thời gian, nỗ lực kỹ thuật của mọi người và không mang lại giá trị gì cả,” nói ngắn gọn là vô dụng.
Những đơn vị khác vẫn đang cố gắng những nỗ lực mở rộng quy mô của họ, mặc dù chưa có một ai đạt được thành tựu như của Google.
IBM cho biết mục tiêu của họ là chứng minh rằng họ có thể vận hành một hệ thống ở quy mô rất lớn, đồng thời đặt câu hỏi liệu cách tiếp cận sửa lỗi của Google có hiệu quả trong một hệ thống quy mô đầy đủ các qubit hay không.
Kỹ thuật mà Google sử dụng, được gọi là lập trình bề mặt (surface code), hoạt động bằng cách kết nối mỗi qubit trong lưới hai chiều với các qubit láng giềng gần nhất. Điều này đòi hỏi một số lượng qubit tương đối lớn phải làm việc cùng nhau, và yêu cầu hệ thống đạt đến 1 triệu qubit hoặc hơn để thực hiện các phép tính hữu ích.
Microsoft thì cho biết họ đã quyết định không theo đuổi thiết kế tương tự sau khi nhận thấy rằng việc xây dựng máy tính 1 triệu qubit đặt ra quá nhiều thách thức kỹ thuật.
Sửa lỗi đọc dữ liệu qubit
IBM đã thay đổi hướng đi sang một hình thức sửa lỗi khác, được gọi là lập trình kiểm tra chẵn lẻ mật độ thấp (low-density parity-check code), với tuyên bố rằng nó sẽ cần lượng qubit ít hơn 90% so với Google. Tuy nhiên, điều này phụ thuộc vào các kết nối dài hơn giữa các qubit đặt ở xa nhau, một thách thức công nghệ khó khăn khiến họ tụt hậu.
Kelly tại Google cho biết, kỹ thuật của IBM đã khiến các hệ thống vốn đã rất khó kiểm soát trở nên phức tạp hơn, mặc dù IBM tuyên bố rằng họ đã thành công trong việc tạo ra các bộ kết nối dài hơn lần đầu tiên vào tháng trước.
Theo Mark Horvath, nhà phân tích tại Gartner, thiết kế mới nhất của IBM khiến ý tưởng máy tính lượng tử cỡ lớn trở nên khả thi, nhưng ông cũng lưu ý rằng cách tiếp cận của họ vẫn chỉ tồn tại trên lý thuyết. “Họ cần chứng minh rằng họ có thể sản xuất các chip có thể làm được điều đó,” ông nói.
Bất kể thiết kế như thế nào, các công ty cũng phải đối mặt với nhiều thách thức kỹ thuật chung khác.
Những thách thức này bao gồm giảm bớt “mớ dây kết nối” bên trong các hệ thống lượng tử ban đầu bằng cách tìm ra những cách mới để liên kết một số lượng lớn thành phần vào một chip duy nhất và sau đó kết nối một số chip thành các module. Nó cũng sẽ đòi hỏi các hệ thống làm lạnh lớn hơn, chuyên dụng hơn để chứa các hệ thống quy mô đầy đủ, hoạt động ở nhiệt độ cực thấp, tiệm cận nhiệt độ tuyệt đối.
Những vấn đề như thế này làm nổi bật những quyết định thiết kế cơ bản có thể rất quan trọng khi hệ thống mở rộng quy mô. Những hệ thống sử dụng siêu dẫn làm qubit, chẳng hạn như của Google và IBM, đã cho thấy một số tiến bộ lớn nhất, mặc dù các qubit của chúng khó kiểm soát hơn và cần hoạt động ở nhiệt độ gần độ không tuyệt đối.
Các hệ thống khác thì sử dụng nguyên tử làm qubit, được gọi là ion bị nhốt và nguyên tử trung tính, hoặc những hệ thống sử dụng photon hứa hẹn sẽ tính toán ổn định hơn. Nhưng những hệ thống như thế này sẽ phải đối mặt với nhiều trở ngại khác, bao gồm khó khăn trong việc liên kết các cụm qubit của chúng lại thành các hệ thống lớn hơn và khắc phục tốc độ tính toán chậm hơn của chúng.
Công nghệ qubit mỗi bên một khác
Chi phí và những thách thức kỹ thuật để cố gắng mở rộng quy mô sẽ có khả năng cho thấy công nghệ nào thực tế hơn.
Sebastian Weidt, CEO tại Universal Quantum, một startup của Anh Quốc, làm việc với thiết kế qubit dạng ion bị nhốt, cho biết rằng các quyết định của chính phủ về công nghệ nào nên hỗ trợ trong thời gian này có thể đóng vai trò quan trọng trong việc thu hẹp quy mô dầu tư để “một số rất nhỏ có thể có trong tay tất cả.”
Một dấu hiệu chứng tỏ chính các quan chức chính phủ Mỹ cũng quan tâm tới việc ai là người chiến thắng trong cuộc chạy đua máy tính lượng tử, DARPA, cơ quan nghiên cứu tiên tiến của Lầu Năm Góc đã bắt đầu một nghiên cứu rộng rãi về các công ty lượng tử khác nhau kể từ năm ngoái, với mục đích xác định công ty nào có thể tạo ra được máy tính lượng tử quy mô thương mại trước.
Trong khi đó, một số công ty gần đây đã giới thiệu các thiết kế qubit mới và đột phá, cho biết chúng sẽ dễ kiểm soát hơn.
Những đơn vị này bao gồm Amazon và Microsoft, tuyên bố rằng họ đã làm chủ một trạng thái vật chất để tạo ra các thành phần đáng tin cậy hơn. Những công nghệ này đang ở giai đoạn phát triển sớm hơn nhiều nhưng những người ủng hộ của họ khẳng định rằng cuối cùng chúng sẽ vượt lên trên.
Điều đó không làm chậm các công ty sử dụng các kỹ thuật cũ đã được phát triển trong nhiều năm. “Nó khó, không có nghĩa là nó không thể thực hiện được,” Horvath tại Gartner nói, phản ánh sự tự tin trong việc thúc đẩy cuộc đua mở rộng quy mô của ngành máy tính lượng tử.
Theo FT
Nguồn:Baochinhphu.vn