Nhắc đến ChatGPT thời gian gần đây, có lẽ không ai là không biết. Đó là một chatbot AI cực kỳ thông minh đã khiến cho cả Google phải kích hoạt "báo động đỏ". Mới đây Google đã tung ra Bard AI - một chatbot khác nhằm cạnh tranh với ChatGPT trong lĩnh vực trí tuệ nhân tạo. Nhưng cũng ít ai biết rằng, thuật toán Transformer được cả Google và ChatGPT sử dụng được viết bởi một nhà nghiên cứu gốc Việt - Lê Viết Quốc.
Lê Viết Quốc là ai?
Lê Viết Quốc sinh năm 1982 ở Hương Thủy (tỉnh Thừa Thiên-Huế), anh từng lớn lên vào thời kỳ mà quê hương không có điện để dùng, nhưng tinh thần hiếu học của chàng trai trẻ không vì thế mà mai một đi. Anh thường xuyên lên thư viện gần nhà để đọc sách và nghiên cứu, ôm mộng ngày nào đó sẽ có được những phát minh của mình.
Nhờ trí thông minh bẩm sinh và tố chất khoa học, sau khi tốt nghiệp trường chuyên Quốc học Huế Quốc tiếp tục học Đại học Quốc gia Australia (Úc), được chuyển qua làm nghiên cứu sinh Tiến sĩ tại Đại học Stanford (Mỹ) về trí tuệ nhân tạo. Trong quá trình học tập và nghiên cứu tại đây. Quốc đã thực hiện một số nghiên cứu về lĩnh vực Học sâu không giám sát (Unsupervised Deep learning).
Quốc là một trong số những người đồng sáng lập Google Brain vào năm 2011 cùng với cố vấn Tiến sĩ Andrew Ng, nghiên cứu sinh Google Jeff Dean và nhà nghiên cứu tại Google Greg Corrado. Google Brain là dự án khai phá về Học sâu dựa trên khối lượng dữ liệu khổng lồ của Google.
Năm 2013, Quốc chính thức đầu quân cho Google với tư cách là một nhà nghiên cứu. Khởi đầu vô cùng ấn tượng với những thành tích trong lĩnh vực dịch máy của gã khổng lồ. Quốc chia sẻ rằng bản thân mình đã phải tìm hiểu rất cẩn thận về phương pháp học sâu.
Quốc cũng là người đề xuất trình tự chuỗi (Seq2seq) học với nhà nghiên cứu Google Ilya Sutskever và Oriol Vinyals - một thư viện gồm các mã lệnh giải mã bộ mã hóa và đào tạo các mô hình nhằm chuyển đổi các chuỗi từ một tên miền này sang miền khác. Seq2seq learning cũng cho phép hệ thống dịch của Google hoạt động hiệu quả và chính xác hơn.
Bài đăng của CEO BKAV Nguyễn Tử Quảng chia sẻ rằng chính thuật toán seq2seq của anh Quốc đã góp phần giúp Google tạo ra Transformer, thuật toán hiện đang được cả Google và ChatGPT sử dụng.
Transformer được cho là một thuật toán đột phá về lĩnh vực AI ngôn ngữ được phát minh vào năm 2017, tạo ra bước ngoặt lớn cho hoạt động của AI bởi trước khi nó ra đời, con người nếu muốn dạy AI thường phải tạo tập dữ liệu được huấn luyện sẵn theo kiểu hỏi - đáp. Hạn chế của kiểu đào tạo này là AI trả lời rất máy móc, chỉ ghi nhớ mà không hiểu được ý nghĩa, nó giống như kiểu học vẹt.
Một điểm đáng chú ý nữa, Google đã hào phóng công khai thuật toán Transformer để tất cả mọi người đều truy cập được, ngoài ra đó cũng là một chương trình mã nguồn mở có thể chỉnh sửa. Có thể nói, toàn bộ các dự án AI từ đó trở về sau đều được hưởng lợi từ phát minh này. OpenAI - công ty tạo ra ChatGPT cũng không phải là ngoại lệ. Bằng chứng là OpenAI mặc dù hoạt động đã vài lâu trong lĩnh vực AI những cũng không có thành tựu gì nổi bật cho đến sau năm 2017 - khi Transformer ra đời.
Tuy nhiên, OpenAI đã chớp lấy thời cơ và ứng dụng nhanh hơn cả Google - công ty phát minh ra nó. Một điều ít người để ý nữa là GPT trong ChatGPT là viết tắt của Generative Pre-trained Transformer nghĩa là "chương trình Tạo Chữ đã được huấn luyện theo phương pháp Transformer".