Học suốt đời từ kinh nghiệm: Mạng thần kinh lỏng AI mới
Bảng nội dung
- Hướng dẫn trí tuệ nhân tạo liên tục
1.1 AI hiện tại và con người
1.2 Nền tảng mạng thần kinh lỏng
1.3 Sự học liên tục và tính thích ứng
1.4 Kiến trúc thuật toán được lấy cảm hứng từ con giun
- Hiệu suất của mạng thần kinh lỏng
2.1 Cấu trúc và sự phụ thuộc
2.2 Sự tiến hóa và tư duy của thuật toán
2.3 Khả năng dự đoán và ứng dụng tiềm năng
- So sánh với các thuật toán trí tuệ nhân tạo lớn
3.1 Hiệu quả và chi phí
3.2 Độ tin cậy và khả năng kiểm tra
3.3 Các vấn đề chung của mô hình trí tuệ nhân tạo lớn
- Các bài học và triển vọng tương lai
4.1 Hướng phát triển từ mạng thần kinh lỏng
4.2 Ứng dụng tiềm năng của thuật toán
Mạng thần kinh lỏng AI đã tiến hóa trí tuệ liên tục từ kinh nghiệm của nó với thế giới 🧠
Trí tuệ nhân tạo (AI) hiện vẫn chưa tương tự con người với tất cả sự tương đồng với não bộ con người. Điều này có thể là hoàn toàn bình thường. Não bộ của các loài trong vương quốc động vật có đủ hình dạng và kích thước khác nhau. Do đó, trong phương pháp học máy hiện đại, các nhà nghiên cứu đã bỏ qua não bộ con người và sự phức tạp tuyệt vời của nó, và bắt đầu nghiên cứu não bộ của một loài giun nhỏ để lấy cảm hứng.
Thật ra, việc lựa chọn này có những lợi ích của nó. Mạng thần kinh kết quả thu được hiệu suất, minh bạch, và điều đặc biệt là khả năng học suốt đời. Khác biệt của thuật toán mạng thần kinh lỏng so với phương pháp học máy thông thường khác là khả năng thích ứng, tức là có thể học từ kinh nghiệm và thay đổi kết nối theo thời gian.
Khả năng thích ứng này rất quan trọng trong môi trường ồn ào và không đoán trước được. Bằng việc lấy cảm hứng từ hệ thống thần kinh của con giun C. Elegans, các nhà nghiên cứu đã thiết kế thuật toán mạng thần kinh lỏng. Kiến trúc của thuật toán này dựa trên 302 neuron lành tính, đơn giản nhưng có khả năng thực hiện hành động đa dạng và đáng kinh ngạc.
Trong bài viết mới nhất, nhóm nghiên cứu tiếp tục cải tiến thuật toán được lấy cảm hứng từ con giun. Hiệu suất của mạng thần kinh lỏng phụ thuộc vào một tập hợp các quan hệ có trọng số giữa "neuron" của mạng. Điều này tương tự như tư duy của con người, mỗi tế bào não được kết nối với nhiều tế bào khác nhau. Việc một tế bào cụ thể có bắn hay không phụ thuộc vào số tín hiệu nó nhận được. Khi vượt qua ngưỡng quan trọng, tế bào gửi tín hiệu đến mạng kết nối xuống dòng.
Trọng số này được coi là các tham số trong mạng thần kinh. Khi thiết bị truyền dữ liệu qua mạng, tham số điều chỉnh vào cấu hình tốt nhất cho hiệu suất tốt nhất của thuật toán. Thông thường, các tham số của mạng thần kinh được cố định trong quá trình chuẩn bị và thuật toán được thực thi. Nhưng trong thế giới thực, điều này có thể làm cho thuật toán trở nên dễ vỡ - khiến nó đâu đó xa rời khỏi quá trình chuẩn bị và không làm như mong đợi.
Tuy nhiên, trong mạng thần kinh lỏng, các tham số bắt đầu tiến hóa theo thời gian và thực hành. AI có thông tin về công việc. Khả năng thích ứng này giúp thuật toán ít gặp sự cố hơn khi hành tinh tung ra thông tin mới hoặc nhiễu - ví dụ, khi mưa che khuất camera của một phương tiện tự lái. So với các thuật toán rộng lớn khác, cấu trúc cơ bản của thuật toán mạng thần kinh lỏng giúp các nhà nghiên cứu nhìn vào và kiểm tra quá trình ra quyết định.
Thật bất ngờ là khả năng mới này và kích thước nhỏ vẫn không làm giảm hiệu suất của AI. Thuật toán này hoạt động tốt hơn hoặc ngang người các thuật toán thời gian trình tự đời gần đây khác để dự đoán các bước tiếp theo trong một chuỗi sự kiện.
"Đang có nhiều người nói về việc mở rộng mạng lưới của họ," "Chúng tôi đang cố gắng thu nhỏ lại, có ít nhưng trạng thái giàu có hơn," bạn Hasani cho biết.
Một thuật toán linh hoạt yêu cầu ít tài nguyên tính toán sẽ tạo ra một robot có óc đúng như ý. Hasani cho rằng phương pháp này có thể hữu ích trong các ứng dụng khác yêu cầu phân tích dữ liệu thời gian thực mới, chẳng hạn như xử lý video hoặc phân tích tài chính.
"Chúng tôi có một mạng thần kinh biểu hiện nhiều hơn có ảnh hưởng từ sự tiến hóa. Nhưng đây chỉ là khởi đầu của quá trình," "Câu hỏi rõ ràng là bạn sẽ mở rộng như thế nào? Chúng tôi cho rằng loại mạng này có thể trở thành một yếu tố cốt lõi của các mạng trí tuệ tương lai."
Trong một thời điểm khi các nhà lãnh đạo lớn như OpenAI và Google liên tục gây chú ý với các thuật toán trí tuệ nhân tạo lớn, đây là một ví dụ thú vị về một chiến lược khác ở hướng ngược lại. GPT-3 của OpenAI cùng với kích thước tuyệt vời của nó - hiện tại là 175 tỷ tham số, và khả năng của nó gây choáng. Một thuật toán mới của Google dẫn đầu hàng loạt với hơn một nghìn tỷ tham số.
Nhưng những người phê phán phàn nàn rằng việc tiến đến trí tuệ nhân tạo ngày càng lớn là không hiệu quả, tốn kém, và tập trung khoa học vào tay của một số công ty trên thị trường để tài trợ cho các mô hình lớn. Hơn nữa, các mô hình lớn này là "hộp đen", hành động của chúng hoàn toàn không thể hiểu được. Điều này có thể gây rắc rối lớn khi các mô hình không được giám sát được đào tạo trên internet không được lọc. Chúng không biết (hoặc có thể là không kiểm soát) những thói quen xấu nào chúng sẽ học.
Các nhà nghiên cứu học thuật đang dần giải quyết một số vấn đề này. Kể từ khi các công ty như OpenAI, Google và Microsoft đẩy mạnh lý thuyết "lớn hơn càng tốt", được dự kiến sẽ xuất hiện những tiến bộ AI đáng kể trong năng suất không phải là do thiếu vốn mà là vì thế. Nhu cầu, như họ khẳng định, là mẹ của sự sáng tạo.
Ý kiến của bạn về điều này là gì? Hãy để tôi biết trong phần bình luận dưới đây và xem một trong những video khác. Đây là Mr. Singularity và tôi sẽ gặp lại bạn trong video kế tiếp.