AI nguồn mở làm cho PC hiện đại trở nên phù hợp và đăng ký có vẻ tồi tàn

AI nguồn mở làm cho PC hiện đại trở nên phù hợp và đăng ký có vẻ tồi tàn

AI nguồn mở làm cho các PC hiện đại trở nên phù hợp và các gói đăng ký có vẻ tồi tàn về Trí tuệ dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Cột Vào thời điểm này năm ngoái, không thể bỏ qua xu hướng mới nhất trong điện toán: những phiến silicon khổng lồ với hàng trăm tỷ bóng bán dẫn – hệ quả tất yếu của một loạt giải pháp khác giúp Định luật Moore không bị lãng quên.

Nhưng doanh số bán PC sụt giảm cho thấy chúng ta không cần những chiếc máy tính quái vật này – và không chỉ vì doanh số bán hàng bị ảnh hưởng bởi COVID.

Trong nửa đầu năm 2022, điện toán doanh nghiệp trông khá giống với thập kỷ trước: ứng dụng văn phòng cơ bản, ứng dụng giao tiếp nhóm và đối với tầng lớp sáng tạo, một số công cụ đa phương tiện. Chắc chắn, các game thủ sẽ luôn tìm cách làm cho các bóng bán dẫn đó hoạt động, nhưng phần lớn phần cứng đã bị quá tải và hoạt động kém. Tại sao lại lãng phí bóng bán dẫn cho các vấn đề đã được giải quyết?

Sau đó, thế giới đã thay đổi. Một năm trước, OpenAI đã ra mắt DALL-E, công cụ AI tổng hợp đầu tiên được phổ biến rộng rãi – một “bộ khuếch tán” chuyển đổi tiếng ồn, lời nhắc văn bản và cơ sở dữ liệu trọng số khổng lồ thành hình ảnh. Nó có vẻ gần giống như ma thuật. Không lâu sau, Midjourney cũng cung cấp nhiều thứ tương tự - mặc dù được điều chỉnh theo thẩm mỹ bìa album Prog Rock của thập niên 70. Có vẻ như nhu cầu về điện toán đám mây sẽ tăng vọt khi những công cụ này tìm được đường vào các sản phẩm của Microsoft, Canva, Adobe và các hãng khác.

Sau đó, thế giới lại thay đổi. Vào tháng XNUMX, Stability AI đã giới thiệu cơ sở dữ liệu mã nguồn mở về trọng số của bộ khuếch tán. Khi mới bắt đầu, Stable Diffusion yêu cầu một GPU tiên tiến nhất, nhưng cộng đồng nguồn mở đã sớm nhận thấy nó có thể tối ưu hóa bộ khuếch tán để chạy trên hầu hết mọi thứ. Nó không nhất thiết phải nhanh, nhưng nó sẽ hoạt động – và nó sẽ tăng quy mô với phần cứng của bạn.

Thay vì yêu cầu tài nguyên đám mây khổng lồ, những công cụ AI mới hơn này chạy cục bộ. Và nếu bạn mua một chiếc máy tính khổng lồ thì ít nhất chúng cũng sẽ chạy nhanh như bất kỳ thứ gì được cung cấp từ OpenAI hoặc Midjourney – mà không cần đăng ký.

Cộng đồng mã nguồn mở luôn sôi nổi thúc đẩy Ổn định khuếch tán đã tạo ra một loạt các trọng số bộ khuếch tán mới đầy ấn tượng, mỗi trọng số nhắm đến một thẩm mỹ cụ thể. Khuếch tán ổn định không chỉ nhanh như bất cứ thứ gì được cung cấp bởi một công ty AI thương mại – nó vừa hữu ích hơn vừa có thể mở rộng hơn.

Và sau đó - vâng, bạn đã đoán ra - thế giới lại thay đổi. Vào đầu tháng XNUMX, OpenAI's ChatGPT viết lại hoàn toàn kỳ vọng của chúng tôi về trí tuệ nhân tạo, trở thành ứng dụng web nhanh nhất đạt 100 triệu người dùng. Một mô hình ngôn ngữ lớn (LLM) được hỗ trợ bởi một “máy biến áp được đào tạo trước tạo ra” – bao nhiêu người trong chúng ta đã quên rằng GPT là viết tắt của từ đó? – đã đào tạo các trọng số của nó trên kho văn bản rộng lớn có sẵn trên internet.

Nỗ lực đào tạo đó ước tính tiêu tốn hàng triệu (có thể là hàng chục triệu) tài nguyên điện toán đám mây Azure. Chi phí gia nhập đó được cho là đủ để ngăn cản các đối thủ cạnh tranh – có lẽ ngoại trừ Google và Meta.

Cho đến khi, một lần nữa, thế giới thay đổi. Vào tháng XNUMX, Meta phát hành LLaMA – một mô hình ngôn ngữ nhỏ gọn và hiệu quả hơn nhiều, với cơ sở dữ liệu trọng số tương đối nhỏ, nhưng có chất lượng phản hồi gần bằng GPT-4 của OpenAI.

Với một mô hình chỉ có ba mươi tỷ thông số, LLaMA có thể ngồi thoải mái trong một chiếc PC với 32GB RAM. Một cái gì đó rất giống ChatGPT - chạy trên Đám mây Azure nhờ cơ sở dữ liệu trọng số khổng lồ của nó - có thể chạy ở hầu hết mọi nơi.

Các nhà nghiên cứu của Meta đã cung cấp trọng số của họ cho các đồng nghiệp học thuật của họ, tải xuống miễn phí. Vì LLaMA có thể chạy trên máy tính trong phòng thí nghiệm của họ, các nhà nghiên cứu tại Stanford đã ngay lập tức cải thiện LLaMA thông qua kỹ thuật đào tạo mới của họ có tên là Alpaca-Lora, giúp cắt giảm chi phí đào tạo một bộ trọng số hiện có từ hàng trăm nghìn đô la xuống còn vài trăm đô la. Họ cũng chia sẻ mã của họ.

Giống như DALL-E đã thua Stable Diffusion về khả năng sử dụng và khả năng mở rộng, ChatGPT dường như đang thua một cuộc đua khác, khi các nhà nghiên cứu sản xuất một loạt các mô hình – chẳng hạn như Alpaca, Vicuna, Koala, và một loạt những người khác – đào tạo và đào tạo lại một cách nhanh chóng và không tốn kém.

Họ đang cải thiện nhanh hơn nhiều so với bất kỳ ai mong đợi. Một phần là do họ đang đào tạo về nhiều “cuộc trò chuyện” ChatGPT đã được chia sẻ trên các trang web như Reddit và chúng có thể chạy tốt trên hầu hết các PC. Nếu bạn có một chiếc máy tính khổng lồ thì chúng thực sự chạy rất tốt.

Những cỗ máy mà chỉ một năm trước chúng ta không thể tưởng tượng được việc sử dụng chúng đã tìm thấy mục đích của chúng: chúng đang trở thành công cụ hỗ trợ cho tất cả các nhiệm vụ AI tổng quát của chúng ta. Chúng giúp chúng ta viết mã, lập kế hoạch, viết, vẽ, lập mô hình và nhiều thứ khác nữa.

Và chúng tôi sẽ không cần phải đăng ký để làm cho những công cụ mới này hoạt động. Có vẻ như nguồn mở đã vượt xa sự phát triển thương mại của cả bộ khuếch tán và máy biến áp.

Trí tuệ nhân tạo mã nguồn mở cũng đã nhắc nhở chúng ta về lý do tại sao PC lại phát triển: bằng cách cho phép mang các công cụ về nhà mà trước đây chỉ có ở văn phòng.

Điều này sẽ không đóng cửa thương mại. Nếu có, điều đó có nghĩa là có nhiều phạm vi hơn cho các doanh nhân tạo ra các sản phẩm mới mà không phải lo lắng về việc liệu họ có vi phạm các mô hình kinh doanh của Google, Microsoft, Meta hay bất kỳ ai khác hay không. Chúng ta đang bước vào thời kỳ đột phá công nghệ lan rộng – và quy mô dường như không mang lại nhiều lợi thế.

Những con quái vật đang thả rông. Tôi nghĩ đó là một điều tốt. ®

Dấu thời gian:

Thêm từ Đăng ký