Qua sách, báo, blog, truyền hình,... Các bạn đều thấy AI đang thể hiện vai trò tuyệt đối của mình trong các bài toán rất phức tạp và đa dạng trong các lĩnh vực như: tìm kiếm, quảng cáo, thương mại điện tử, tài chính,... Tuy nhiên, giới truyền thông đang tung hô và thần thánh hóa AI một cách ngoạn mục.
Tôi - Andrew Ng, cựu team lead của Google Brain, nguyên giám đốc phòng thí nghiệm AI của đại học Stanford. Tôi đã phát triển rồi dẫn dắt những team làm AI hàng đầu thế giới và cho ra các sản phẩm AI được hàng triệu người sử dụng. Tôi đã chứng kiến sức mạnh của AI. Tuy nhiên tôi khẳng định, AI không phải là điều gì đó quá kì diệu như truyền thông đang nhắc đến.
Input A | Output B | Ứng dụng |
Ảnh | Nhận dạng xem có phải là mặt người không | Tự động tag ảnh |
Giấy vay tiền | Xác nhận xem tiền vay đã được trả chưa? | Đánh giá & phê duyệt các khoản vay |
Quảng cảo + thông tin người dùng | Người dùng có click quảng cáo hay không | Chạy banner quảng cáo |
Một đoạn âm thanh | Transcript (lời thoại dạng text) | Nhận diện giọng nói |
Một câu (tiếng Anh) | Câu tương đương trong ngôn ngữ khác | Dịch thuật |
Dữ liệu của các cảm biến (trong máy móc..) | Đánh giá rủi ro | Hệ thống an toàn |
Camera + các cảm biến trên xe | Vị trí và trạng thái của xe | Ô tô tự lái |
Tham khảo các khóa học lập trình online, onlab, và thực tập lập trình tại TechMaster
Việc xây dựng được các hệ thống nhận input A và cho ra output B (gọi tắt là A -> B) sẽ
làm thay đổi bộ mặt của nhiều ngành. Trong giới kỹ thuật, phương pháp
xây dựng các hệ thống nhận input A và cho ra output B như trên được gọi
là supervised learning (tạm dịch:học máy có giám sát).Trí tuệ của con người thừa sức xử lý được các bài toán dạng A -> B như trên, tuy nhiên máy móc thì cần một quá trình phát triển dài hơi trước khi chạm đến đẳng cấp đó. Bạn thấy đấy, chiếc máy tính đầu tiên ra đời cách đây gần 1 thế kỷ. Trong khi đó, các hệ thống AI tối tân nhất hiện nay mới chỉ giải quyết một số bài toán cụ thể như tôi đã liệt kê ở trên.Tuy nhiên các hệ thống đó không ngừng được đầu tư và cải tiến. Đại diện sáng giá nhất của AI hiện nay sử dụng deep learning (deep learning được phát triển theo hướng mô phỏng một phần cơ chế hoạt động của não người). AI được nhiều nhóm nghiên cứu tiếp cận theo các phương pháp khác nhau. Một số nhóm đã chứng minh, bằng cả lý thuyết lẫn thực tế, rằng AI rất mạnh trong việc giải quyết các bài toán trong một ngữ cảnh cụ thể. Tuy vậy, AI cần vượt qua một "bậc thang" nữa để có được những kết quả mang tính cách mạng trên nhiều lĩnh vực. Và con đường dẫn đến "bậc thang" này vẫn chưa được tìm ra.
Nếu để ý kỹ bạn sẽ thấy một nhược điểm của tất cả các hệ thống học máy có giám sát hiện nay: chúng cần quá nhiều input để đưa ra output.
Ví dụ, để hệ thống tự động tag đúng ảnh của một người bạn của bạn, AI cần 10.000 đến 100.000 bức ảnh và một vài thẻ tag có sẵn từ trước để nhận diện bạn của bạn.
Một hệ thống nhận diện và xử lý giọng nói cần 10.000 giờ clip audio chứa đoạn transcipt dài không quá 1000 ký tự để nhận diện đoạn transcript đó khi được đọc và in nó ra màn hình.
Để AI hoạt động hoàn hảo, việc lựa chọn input A và output B phù hợp là cực kỳ quan trọng. Nghe thì có vẻ đơn giản nhưng việc lực chọn A và B một cách tối ưu đã tạo ra nhiều cuộc cách mạng trong một số ngành công nghiệp.
Cộng đồng nghiên cứu và phát triển AI tương đối "mở" - tức các framework, source code được chia sẻ không giới hạn. Tuy nhiên có 2 khó khăn mà bất kỳ cá nhân và tổ chức nào cũng gặp phải khi áp dụng AI cho bài toán của họ:
- Về dữ liệu: như tôi đã đề cập ở trên, chọn input và output hợp lý là một việc quan trọng. Các ý tưởng và giải pháp triển khai của các team nghiên cứu AI có thể giống nhau nhưng việc thu thập dữ liệu đúng mẫu thì không phải team nào cũng hoàn thành tốt được. Và tất nhiên thiếu dữ liệu thì các engine AI khó có thể hoàn thành nhiệm vụ được giao.
- Về khả năng linh hoạt của team: các engine AI không phải là mỳ ăn liền. Bạn cần tùy biến một chút để nó phù hợp với nhu cầu và bài toán mà bạn đang cần giải quyết. Và tất nhiên rồi, không phải ai cũng có thể tùy biến các engine này.
hbr
No comments:
Post a Comment