Phan Minh Nhật, sinh viên Trường Đại học Bách khoa – Đại học Đà Nẵng, đã nghiên cứu và phát triển thành công một nền tảng trí tuệ nhân tạo mang tên MedCapSys, có khả năng phân tích ảnh cộng hưởng từ (MRI) não và tự động hóa quá trình tạo báo cáo y tế. Với hệ thống này, Nhật đã xuất sắc giành giải Nhất tại Hội nghị Khoa học và Triển lãm Công nghệ năm học 2024–2025.
MedCapSys là kết quả của hơn một năm nghiên cứu, bao gồm bốn mô-đun chính được thiết kế với mục tiêu chuyên biệt hóa từng bước trong quy trình phân tích ảnh não. Cụ thể, MedCapNet là mô hình giải mã và mã hóa thông minh, giúp tự động gán chú thích cho ảnh MRI. GuidedDCNet hỗ trợ phát hiện bất thường bằng cách phân loại tổn thương dựa trên các thông số khuếch tán.


GuidedSegDiff phụ trách phân đoạn, giúp xác định chính xác kích thước, vị trí và số lượng vùng tổn thương trong ảnh. Cuối cùng, BrainMedQwen, một mô hình ngôn ngữ thị giác, sẽ tổng hợp thông tin từ các mô-đun trên để tạo nên một bản báo cáo chẩn đoán y tế đầy đủ, đúng chuẩn chuyên ngành.
Hệ thống hiện vẫn đang trong giai đoạn phục vụ nghiên cứu và chưa được triển khai ứng dụng trong môi trường bệnh viện. Một số thành phần như GuidedDCNet hiện đang được gửi phản biện tại Tạp chí quốc tế Electronics and Telecommunications Research Institute (ETRI) – một ấn phẩm thuộc danh mục Scopus và nằm trong nhóm xếp hạng Q2. Điều này cho thấy hệ thống không chỉ mang tính ứng dụng cao mà còn có giá trị khoa học rõ rệt.
Minh Nhật chia sẻ, quá trình chẩn đoán hình ảnh não bằng MRI vốn là một trong những khâu đòi hỏi độ chính xác rất cao trong y học hiện đại. Đồng thời, việc tạo ra báo cáo y khoa phải đáp ứng các tiêu chuẩn nghiêm ngặt và yêu cầu sự hiểu biết sâu sắc về ngữ cảnh lâm sàng. Với MedCapSys, Nhật kỳ vọng sẽ nâng cao tính chính xác và hiệu quả cho các bác sĩ trong quá trình phân tích dữ liệu ảnh, nhất là trong thời điểm công nghệ AI vẫn còn đối mặt với hiện tượng “ảo giác”, tức là tự tạo ra thông tin không đúng sự thật.
“Chúng tôi không để AI tự ‘đoán già đoán non’ toàn bộ bức ảnh. Thay vào đó, hệ thống được cung cấp thêm các dữ liệu hỗ trợ như chuỗi xung, góc chụp hay vị trí nghi ngờ tổn thương. Điều này giúp mô hình có khả năng ‘hiểu’ ngữ cảnh tốt hơn, từ đó giảm thiểu các sai sót trong quá trình phân tích”, Nhật cho biết.
Toàn bộ quy trình vận hành MedCapSys bắt đầu từ việc tiếp nhận ảnh MRI đầu vào, có thể ở dạng hai chiều hoặc ba chiều. Sau khi được xử lý sơ bộ nhằm đồng bộ chất lượng và định dạng, ảnh sẽ lần lượt đi qua các mô-đun để phân tích, gán nhãn và phân đoạn tổn thương. Ở bước cuối cùng, mô hình ngôn ngữ thị giác sẽ gom toàn bộ dữ liệu đầu ra và dựng thành một bản báo cáo chi tiết – giúp bác sĩ nhanh chóng đưa ra chẩn đoán lâm sàng.
Điểm nổi bật của hệ thống là kiến trúc dạng mô-đun linh hoạt. Điều này cho phép cải tiến từng phần riêng biệt mà không ảnh hưởng đến toàn bộ hệ thống. Nhật cho biết: “Mỗi mô-đun đều được nâng cấp qua nhiều phiên bản, ứng dụng kỹ thuật như học chuyển giao, nén mô hình hay tối ưu kiến trúc để cải thiện hiệu năng mà không đánh đổi độ chính xác”.
Dữ liệu huấn luyện MedCapSys được lấy từ các nguồn mở uy tín như cuộc thi Radiology Objects in Context, Multimodal Brain Tumor Segmentation Challenge 2020, cũng như các bộ dữ liệu từ Figshare, SARTAJ và Br35H. Hệ thống cũng tích hợp mô hình Segment Anything Model 2 của Meta để hỗ trợ gắn nhãn bán tự động, kết hợp thêm thao tác thủ công nhằm tinh chỉnh dữ liệu đầu vào.
Tiến sĩ Nguyễn Văn Hiệu, Trưởng bộ môn Công nghệ phần mềm tại Trường Đại học Bách khoa – Đại học Đà Nẵng, nhận định công trình của Minh Nhật có hướng đi khác biệt so với nhiều nghiên cứu hiện nay, kể cả các hệ thống lớn như Med-Gemini của Google. “MedCapSys không chỉ dừng ở phân tích ảnh y tế mà còn tích hợp khả năng tạo báo cáo chi tiết – một điểm mà các hệ thống hiện tại chưa khai thác tối ưu”, ông nói.
Ông Hiệu kỳ vọng hệ thống sẽ sớm được áp dụng trong môi trường y tế thực tế, góp phần nâng cao chất lượng chẩn đoán hình ảnh và mở ra một hướng tiếp cận mới trong ứng dụng AI vào lĩnh vực y học hiện đại.