Trong 5 năm trở lại đây, ngành ngân hàng Việt Nam đã trải qua giai đoạn chuyển đổi đặc biệt nhanh trong cách tiếp cận và ứng dụng AI. Nếu như giai đoạn 2018-2019, AI chủ yếu được nhắc đến như một công cụ hỗ trợ phân tích nâng cao, thì đến năm 2024-2025, AI đã dần trở thành một năng lực cốt lõi của nhiều tổ chức tín dụng.
Những dự án AI vốn chỉ xuất hiện ở nhóm ngân hàng tiên phong như Techcombank, MB, VPBank nay đã lan rộng sang hầu hết các ngân hàng thương mại; các bộ phận như Data Office, AI Center, Risk Analytics dần trở thành “tiêu chuẩn” thay vì là ngoại lệ.
| |
Ông Nguyễn Quang Huy, Chuyên gia dữ liệu và AI |
Giai đoạn 2023-2024 chứng kiến sự trỗi dậy của học sâu (deep learning), mô hình ngôn ngữ lớn (LLM) và thế hệ AI tạo sinh (GenAI), mở ra những ứng dụng hoàn toàn mới cho ngành tài chính - từ chatbot thông minh, sinh báo cáo tự động cho đến hỗ trợ thẩm định hồ sơ tín dụng và giám sát tuân thủ.
Trong bối cảnh đó, việc nhìn lại chặng đường “AI truyền thống”, đồng thời phân tích làn sóng công nghệ mới và những rủi ro kèm theo là điều cần thiết để định hình chiến lược AI giai đoạn 2025-2030.
AI truyền thống: Nền móng của chuyển đổi số ngân hàng
Các mô hình AI truyền thống, đặc biệt là các thuật toán thống kê, machine learning tuyến tính và mô hình cây quyết định, chính là nền tảng phát triển AI trong ngân hàng suốt hơn một thập kỷ qua. Dù không “ồn ào” như GenAI, chúng vẫn đóng vai trò trụ cột, âm thầm vận hành phía sau nhiều quy trình cốt lõi của ngân hàng hiện đại.
Đầu tiên phải nói đến mô hình rủi ro - nền tảng của quản trị tín dụng hiện đại. Ứng dụng AI quan trọng nhất của các ngân hàng Việt Nam nằm ở xây dựng các mô hình PD (khả năng vỡ nợ), LGD (tổn thất khi vỡ nợ) và EAD (giá trị phơi nhiễm rủi ro). Bên cạnh đó, các mô hình hành vi cho khách hàng hiện hữu và mô hình cảnh báo sớm (Early Warning System) ngày càng phổ biến, trở thành “bộ lọc” giúp ngân hàng nhận diện sớm rủi ro danh mục.
Giá trị thực tiễn mà các mô hình này mang lại rất rõ ràng: nâng cao khả năng dự báo rủi ro và tối ưu hóa giới hạn tín dụng; giảm tỷ lệ nợ xấu (NPL) thông qua cảnh báo sớm; đồng thời cải thiện lợi suất điều chỉnh rủi ro trên vốn (RAROC). Không kém phần quan trọng, các mô hình này góp phần chuẩn hóa quy trình phê duyệt theo Basel II/III, tạo nền tảng cho quản trị rủi ro hiện đại.
Tuy nhiên, để đạt được những kết quả đó không hề đơn giản. Một lỗi phổ biến là “quá tin vào mô hình mà quên dữ liệu”. Nhiều ngân hàng gặp khó khăn do dữ liệu lịch sử chưa đầy đủ, định nghĩa dữ liệu không thống nhất giữa các hệ thống, hoặc thiếu tập dữ liệu gán nhãn chuẩn.
AI không chỉ là mô hình dự báo mà đã trở thành hệ thống có khả năng hiểu, xử lý ngôn ngữ, hình ảnh, chuỗi hành vi phức tạp và tự sinh nội dung, hỗ trợ ra quyết định ở mức độ sâu hơn.
Không ít mô hình PD/LGD “đẹp trên giấy” nhưng khi đưa vào vận hành lại không hiệu quả vì đội ngũ thẩm định tín dụng không tin tưởng, dẫn đến tỷ lệ vượt thẩm quyền (override) cao. Thêm vào đó, mô hình rủi ro đòi hỏi tái huấn luyện định kỳ, nhưng nhiều nơi vẫn xem mô hình như “sản phẩm làm một lần”, khiến mô hình nhanh chóng bị “drift” và giảm dần hiệu quả.
Nếu ở mảng rủi ro, AI thể hiện vai trò phòng thủ, thì trong marketing và bán hàng, AI lại thể hiện năng lực tấn công - mở rộng doanh thu. Những năm gần đây, marketing ngân hàng chuyển mạnh từ cách tiếp cận “bắn pháo hoa số lượng lớn” (tiếp cận đại trà/tiếp thị đại chúng) sang mô hình “bắn tỉa có trọng tâm”.
Các mô hình dự báo nhu cầu sản phẩm, dự báo rời bỏ và phân khúc hành vi cho phép ngân hàng cá nhân hoá thông điệp, tập trung tài nguyên vào nhóm khách hàng tiềm năng nhất.
Nhờ đó, nhiều ngân hàng ghi nhận hiệu quả bán chéo tăng thêm 20-40%, chi phí marketing trên mỗi lượt chuyển đổi giảm đáng kể, tỷ lệ khách hàng rời bỏ ở sản phẩm thẻ giảm và tiền gửi không kỳ hạn (CASA) được cải thiện. Trải nghiệm khách hàng cũng được nâng cấp khi họ ít bị “tấn công” bởi những thông điệp quảng cáo không liên quan - một yếu tố ngày càng nhạy cảm trong thời đại số.
Dù vậy, bài học “mô hình tốt nhưng triển khai kém” vẫn lặp lại. Không ít ngân hàng đầu tư mạnh cho mô hình nhưng không tối ưu hệ thống “kích hoạt”. Kết quả, mô hình chỉ nằm trên dashboard hoặc file báo cáo mà không được nhúng sâu vào hệ thống quản trị quan hệ khách hàng (CRM), nền tảng triển khai chiến dịch tiếp thị đa kênh (campaign engine) hay thông báo đẩy trên ứng dụng (app push notification). Khi AI không được đưa vào đúng điểm chạm với khách hàng, giá trị kinh doanh thực khó phát huy.
Song song với đó, AI truyền thống cũng thâm nhập mạnh vào vận hành và chống gian lận. Công nghệ như nhận dạng ký tự quang học (OCR) chứng từ, trích xuất dữ liệu từ căn cước công dân, sao kê, chứng minh thu nhập trở nên phổ biến, giúp tự động hóa các bước nhập liệu thủ công. Kết hợp với tự động hóa quy trình bằng robot (RPA), AI giúp giảm 30-60% thời gian xử lý một số quy trình vận hành, từ hồ sơ tín dụng đến phê duyệt thẻ.
Trong chống gian lận, các mô hình phát hiện bất thường (anomaly detection) phát hiện hành vi bất thường trong giao dịch thẻ, Internet Banking hoặc giả mạo danh tính. Đây là tuyến phòng thủ quan trọng trong bối cảnh tội phạm công nghệ ngày càng tinh vi.
Hạn chế lớn nhất của các giải pháp này là độ chính xác chưa hoàn hảo. OCR tại Việt Nam bị ảnh hưởng bởi chất lượng giấy tờ và ảnh chụp; các mô hình gian lận đôi khi chặn nhầm giao dịch hợp lệ, gây bức xúc cho khách hàng. Nhiều quy trình vẫn phụ thuộc vào rule-based (luật định hoặc mẫu hành vi), khiến AI khó phát huy hết tác dụng. Những giới hạn này là lý do ngành ngân hàng kỳ vọng nhiều vào thế hệ AI mới - deep learning và GenAI với khả năng học sâu, linh hoạt hơn.
| |
Thành công của AI trong ngành ngân hàng được đo bằng mức độ tin cậy của khách hàng và giá trị thực tạo ra cho nền kinh tế |
Deep Learning - LLM - GenAI: Bước nhảy vọt 2023-2025
Nếu AI truyền thống là bước khởi đầu, mang tính nền tảng, thì từ sau năm 2023, deep learning, LLM và GenAI đã đưa cuộc chơi lên một nấc thang mới. Lúc này, AI không chỉ là mô hình dự báo mà đã trở thành hệ thống có khả năng hiểu, xử lý ngôn ngữ, hình ảnh, chuỗi hành vi phức tạp và tự sinh nội dung, hỗ trợ ra quyết định ở mức độ sâu hơn.
Deep learning đặc biệt phù hợp với các bài toán cần phân tích cấu trúc dữ liệu phức tạp như chuỗi giao dịch, hình ảnh, video hoặc các mẫu hình (pattern) hành vi khó nhận diện bằng mô hình truyền thống. Trong ngân hàng, deep learning được ứng dụng để phát hiện gian lận phức tạp, phân tích hình ảnh và video trong quy trình định danh khách hàng điện tử (eKYC), xây dựng mô hình hành vi khách hàng theo dữ liệu thời gian thực.
Nhờ khả năng học hàng nghìn đặc trưng, các mô hình này hỗ trợ ngân hàng nhận diện hành vi tinh vi như chuyển khoản bất thường vào ban đêm, tần suất đăng nhập lạ hoặc chuỗi giao dịch bị “bẻ nhỏ” để tránh ngưỡng cảnh báo. Tuy nhiên, thách thức lớn nằm ở khả năng giải thích: mô hình càng phức tạp, việc giải trình với kiểm toán nội bộ, ban kiểm soát hoặc Ngân hàng Nhà nước càng khó. Chưa kể, việc triển khai deep learning đòi hỏi hạ tầng tính toán GPU mạnh - khoản đầu tư không phải ngân hàng nào cũng sẵn sàng.
Nếu deep learning giúp máy “nhìn và nhận diện” tốt hơn, thì LLM và GenAI giúp máy “hiểu và diễn đạt” gần với con người hơn. Chúng đang tạo ra cuộc cách mạng trong nhiều quy trình ngân hàng, đặc biệt là xử lý văn bản và giao tiếp.
Dự báo 2-3 năm tới, ứng dụng LLM/GenAI sẽ dịch chuyển từ hỗ trợ và tự động hóa sang mức độ tự chủ cao hơn. Các khái niệm như “AI Underwriter” - hệ thống tự đọc hồ sơ, phân tích, đánh giá rủi ro và đề xuất quyết định tín dụng gần như tức thời; “Fraud Hunting Agent” - tác nhân AI truy vết mạng lưới gian lận; hay “Compliance Assistant” - trợ lý tuân thủ đọc, tóm tắt quy định pháp luật và đối chiếu với chính sách nội bộ đều có tính khả thi cao.
Điểm chung của các ứng dụng này là giải quyết “nút thắt cổ chai” lớn nhất: thời gian xử lý văn bản và khối lượng công việc thủ công.
Tuy nhiên, tiềm năng càng lớn thì rủi ro càng nhiều. GenAI đặc biệt nhạy cảm với bảo mật thông tin vì các mô hình public không thể sử dụng với dữ liệu khách hàng; hiện tượng ảo giác (hallucination) - “mô hình tự bịa” có thể gây hậu quả nghiêm trọng nếu không được kiểm soát. Khó khăn về khung pháp lý, khả năng tích hợp vào hệ thống hiện tại và chi phí vận hành cao cũng khiến các ngân hàng vẫn triển khai thận trọng. Từ đây, câu chuyện rủi ro và đạo đức AI trở thành chủ đề không thể né tránh.
Rủi ro và đạo đức AI: Mặt tối của sự thông minh
Sự phát triển mạnh mẽ của AI trong ngân hàng không chỉ mang đến cơ hội mà còn kéo theo một loạt rủi ro mới - từ kỹ thuật, bảo mật đến đạo đức và tuân thủ. Nếu trước đây, khó khăn chủ yếu nằm ở mô hình chưa đủ chính xác hoặc dữ liệu chưa đủ tốt, thì với deep learning và GenAI, rủi ro chuyển sang cấp độ mới: mô hình không chỉ “sai”, mà có thể sai theo những cách khó lường; không chỉ “xử lý dữ liệu”, mà có nguy cơ “lộ dữ liệu”; không chỉ “dự đoán”, mà còn ảnh hưởng trực tiếp đến quyền lợi tài chính của khách hàng.
Rủi ro kỹ thuật là vấn đề đầu tiên cần đặc biệt lưu ý. Khi mô hình AI phức tạp hơn, việc giải thích kết quả cho các bên liên quan trở nên khó khăn. Một mô hình PD sai lệch có thể đánh giá thấp rủi ro của một phân khúc khách hàng hoặc tệ hơn, tạo ra sự phân biệt đối xử dựa trên các chỉ tiêu tổng hợp mà người xây dựng mô hình không nhận ra.
Hiện tượng “drift” - mô hình giảm dần độ chính xác theo thời gian - vẫn là bài toán nan giải khi hành vi khách hàng và môi trường kinh tế liên tục biến động. Các vấn đề như overfitting (hiện tượng quá khớp) hay học sai mẫu vẫn xuất hiện, khiến mô hình đẹp về mặt thống kê nhưng kém hiệu quả trong thực tế.
Khi LLM được đưa vào sử dụng, rủi ro mới lại xuất hiện: mô hình có thể bị “ảo giác”, tự bịa thông tin, dẫn đến tư vấn sai, viết sai báo cáo hoặc trả lời sai cho khách hàng. Điều này đặc biệt rủi ro trong lĩnh vực tài chính - nơi yêu cầu độ chính xác gần tuyệt đối. Sự kiện Deloitte sử dụng GenAI tạo báo cáo cho Chính phủ Úc nhưng chứa hàng loạt trích dẫn sai, tài liệu giả và thậm chí câu trích dẫn không có thật từ phán quyết tòa án là ví dụ điển hình.
Song hành với rủi ro kỹ thuật là rủi ro bảo mật - thách thức lớn nhất khi ngân hàng triển khai GenAI. LLM muốn trả lời chính xác phải “ăn” nhiều dữ liệu, trong đó có dữ liệu nhạy cảm. Việc nhân viên vô tình dán dữ liệu khách hàng vào công cụ AI public đã xảy ra ở nhiều tổ chức trên thế giới và hoàn toàn có thể lặp lại tại Việt Nam nếu thiếu kiểm soát.
Ngay cả khi dùng mô hình riêng, các kỹ thuật như mã hóa nhúng (embedding) hay tinh chỉnh (fine- tuning) vẫn có thể lưu lại dấu vết thông tin. Trong khi đó, tội phạm công nghệ cũng tận dụng AI để nâng cấp chiêu thức tấn công: từ deepfake voice giả giọng chủ tài khoản đến lừa đảo qua email (email phishing) được GenAI tạo ra với văn phong giống nhân viên ngân hàng thật.
Một tầng rủi ro dài hạn hơn là rủi ro đạo đức. Khi AI tham gia sâu vào quy trình ra quyết định như phê duyệt tín dụng, đề xuất hạn mức hay chọn đối tượng marketing, bất kỳ lệch lạc nào trong dữ liệu hoặc mô hình đều có thể dẫn đến hành vi không công bằng. Một mô hình chấm điểm tín dụng (scoring) được huấn luyện trên dữ liệu lệch có thể đánh giá thấp khả năng trả nợ của khách hàng ở khu vực, ngành nghề hoặc nhóm thu nhập nhất định; nhóm chưa có lịch sử tín dụng dễ bị đánh giá bất lợi mà không có lý do minh bạch.
Trong marketing, AI có thể giúp tối ưu chiến dịch nhưng vô tình tăng tần suất tiếp thị đến mức gây khó chịu, thậm chí xâm phạm quyền riêng tư. Ở mảng vận hành, việc để GenAI tự sinh báo cáo tín dụng hoặc hồ sơ AML (chống rửa tiền) mà không ghi rõ nguồn gốc dễ tạo khoảng trống trách nhiệm, dẫn đến sai sót pháp lý và ảnh hưởng đến quyền lợi khách hàng.
Chính vì vậy, các ngân hàng buộc phải xây dựng khung quản trị AI bài bản thay vì triển khai theo kiểu “thử nghiệm nhanh, sửa dần”. Các tiêu chuẩn quốc tế như ISO/IEC 23894 về quản trị rủi ro AI, BCBS 239 về quản trị dữ liệu rủi ro hay các hướng dẫn về trách nhiệm giải trình, minh bạch, khả năng giải thích của mô hình từ các cơ quan quản lý quốc tế cần được tham chiếu và nội luật hóa phù hợp với bối cảnh Việt Nam. AI chỉ mang lại giá trị bền vững khi được triển khai an toàn, minh bạch và có khả năng kiểm toán - nhất là trong lĩnh vực ngân hàng, nơi có rủi ro hệ thống rất cao và chịu sự giám sát chặt chẽ của pháp luật.
Tương lai bứt phá: AI an toàn - minh bạch - có trách nhiệm
Trong 5 năm tới, ngân hàng nào xây dựng được nền tảng dữ liệu vững chắc, kết hợp năng lực kỹ thuật với hiểu biết nghiệp vụ và triển khai AI trong khung quản trị minh bạch, có trách nhiệm sẽ bứt phá.
AI không còn là câu chuyện “có hay không”, mà là “triển khai thế nào để an toàn, hiệu quả và có thể kiểm soát”. Thành công của AI trong ngân hàng Việt Nam sẽ được đo không chỉ bằng số lượng mô hình hay dự án, mà bằng mức độ tin cậy của khách hàng, khả năng chống chịu của hệ thống tài chính và giá trị thực tế mang lại cho nền kinh tế.