Đó là các hội nghị quốc tế về học sâu, mạng neural nhân tạo, tính toán nâng cao… vốn dành cho các chuyên gia, nhà khoa học hàng đầu về những lĩnh vực này, đã chấp nhận đăng bài báo khoa học của sinh viên Trường ĐH Công nghệ Thông tin ĐHQG-HCM.
Theo Đoàn Minh Tú - Sinh viên năm 4, ngành Công nghệ thông tin, hệ chất lượng cao, kiến trúc mạng neural có ảnh hưởng đến hiệu năng của các mô hình Deep Learning (Học sâu). Hiện nay, các kiến trúc mạng neural thường được thiết kế dựa trên kinh nghiệm của chuyên gia hoặc dựa theo khuyến nghị từ những công trình nghiên cứu trước. Những kiến trúc này cần được hiệu chỉnh sao cho phù hợp với từng trường hợp ứng dụng cụ thể.
"Việc hiệu chỉnh thường là thủ công, dựa trên trực giác, hoặc thử-sai, và tốn nhiều thời gian, đặc biệt là với các mô hình có độ phức tạp cao. Đây là động lực cho sự ra đời của các kỹ thuật Neural Architecture Search (NAS – Tìm kiếm kiến trúc mạng neural) nhằm tự động hóa quá trình thiết kế kiến trúc mạng neural”- Minh Tú giải thích.
Tú cho biết thêm, ngoài mục tiêu tìm ra kiến trúc mạng neural có độ chính xác cao, những khía cạnh khác như độ phức tạp, chi phí tính toán của các kiến trúc cũng cần được xét tới. Do đó, NAS có thể được mô hình hóa thành bài toán Multi-Objective Optimization (Tối ưu hóa đa mục tiêu), và các phương pháp Evolutionary Computation (Tính toán tiến hóa) là công cụ phù hợp để giải quyết lớp bài toán này.
“NAS trong thực tế thường đòi hỏi rất nhiều tài nguyên tính toán do mỗi kiến trúc đề xuất trong quá trình tìm kiếm đều cần được huấn luyện để đánh giá độ chính xác trên các bộ dữ liệu cụ thể. Tại ICLR 2021, Wuyang Chen và cộng sự đề xuất kết hợp 2 chỉ số condition number of neural tangent kernel và number of linear regions để ước lượng hiệu năng của các kiến trúc mạng neural chỉ với các bộ trọng số khởi tạo mà không cần huấn luyện các kiến trúc này. Nhóm nghiên cứu Evolutionary Learning & Optimization (ELO@UIT) đã tìm hiểu cách áp dụng thích hợp 2 chỉ số này cho bài toán NAS đa mục tiêu với Thuật toán tiến hóa” - Minh Tú chia sẻ.
Kết quả nghiên cứu này của Tú - Training-Free Multi-Objective Evolutionary Neural Architecture Search via Neural Tangent Kernel and Number of Linear Regions - đã được nhận đăng tại International Conference on Neural Information Processing (ICONIP) 2021. Đây là hội nghị khoa học và diễn đàn quốc tế cho người làm nghiên cứu, chuyên gia công nghệ trong các lĩnh vực học sâu, mạng neural nhân tạo, khoa học thần kinh...
ICONIP là hội nghị thường niên (tổ chức lần đầu tiên năm 1994 tại Seoul, Hàn Quốc) do Hiệp hội Asia Pacific Neural Network Society (APNNS) chủ trì. Hội nghị nhằm khuyến khích hợp tác giữa các nhà nghiên cứu, chuyên gia công nghệ đang làm việc trong các lĩnh vực liên quan đến mạng neural trên thế giới và đặc biệt tại khu vực châu Á - Thái Bình Dương.
ICONIP lần thứ 28 được tổ chức vào tháng 12/2021 tại Bali, Indonesia.
Bài báo khoa học A Fast Keccak Hardware Design for High Performance Hashing System của Đoàn Văn Hiếu - Sinh viên khoa Kỹ thuật máy tính - đã được Hội nghị Quốc tế về Tính toán nâng cao và ứng dụng, International Conference on Advanced Computing and Applications (ACOMP) chấp nhận đăng tải.
Theo bài báo này, sự phát triển của tiền điện tử đã thu hút nhiều sự chú ý từ nhiều lĩnh vực khác nhau, đặc biệt là trong lĩnh vực nghiên cứu học thuật. Tiền điện tử được xây dựng và phát triển dựa trên nền tảng công nghệ blockchain. Một trong số đó là Ethereum - loại tiền phổ biến và có giá trị cao trên thị trường tiền điện tử và được nhiều người quan tâm.
Do đó, nhu cầu về không gian để lưu trữ thông tin giao dịch ngày càng tăng lên, dẫn đến việc tạo khối (block). Công việc này được gọi là Ethereum mining. Các thợ mỏ (miners) phải giải quyết một bài toán được gọi là Ethash (Ethereum Proof-of-Work) để tạo ra kết quả thỏa mãn các yêu cầu của bài toán.
Đoàn Văn Hiếu cho biết: “Trong bài báo này, nhóm đã đề xuất một kiến trúc phần cứng để thực hiện hệ thống đào block mang tên Ethash. Để có được khối Ethash có hiệu suất cao, kiến trúc phần cứng của thuật toán Keccak cũng được nhóm kiến nghị sử dụng. Các thiết kế được hiện thực trên Xilinx Virtex 7 FPGA-VC707. Throughput của khối Keccak theo kiến trúc được đề xuất của nhóm đạt 8 Gbps với Efficiency 5,5 Mbps/Slices. Hashrate của hệ thống Ethash đạt 88KH/s ở tần số 19,231MHz”.
ACOMP là một diễn đàn quốc tế được tổ chức thường niên từ năm 2007, dành cho các học giả, kỹ sư và nghiên cứu sinh trao đổi ý tưởng, kỹ thuật, phương pháp và các ứng dụng hiện đại cho tính toán nâng cao.
Ban đầu được hình thành như một địa điểm khoa học về tính toán hiệu suất cao và các ứng dụng tiên tiến, hội nghị không ngừng mở rộng và thu hút nhiều đại biểu quốc tế và Việt Nam, những người quan tâm đến các chủ đề tiên tiến của khoa học máy tính và kỹ thuật.
ACOMP 2021 sẽ được tổ chức trực tuyến ngày 24 - 26/11 (hoặc ở chế độ kết hợp nếu tình hình đại dịch được cải thiện).
PHAN ANH
Hãy là người bình luận đầu tiên