Tin mới

  • Thông báo thay đổi Phòng học (Từ 12/5/2025 - đến hết học kỳ) 08/05/2025

    Bắt đầu từ tuần 12/5/2025 đến hết học kỳ, các lớp sau đây sẽ được thay đổi Phòng học: Lớp Tên Môn Đơn Vị Thứ Phòng Cũ Phòng Mới Ngày Di Dời Đến 23TTH_TN Lý thuyết thống kê  Khoa Toán 2 D209 NDH 5.4 5/12/2025 Hết học kỳ 23KDL Nhập môn Khoa học dữ...

  • Trường hè Toán học sinh viên năm 2025 08/05/2025

    Thời gian: 08:00:14/07/2025 đến 17:00:23/07/2025 Địa điểm: Trường Đại học FPT, thành phố Đà Nẵng 1. Mục đích, nội dung:  Trường hè Toán học sinh viên nhằm giới thiệu cho sinh viên một số chủ đề của Toán học lý thuyết; Toán ứng dụng, Khoa học tính toán và Toán...

  • Company Open Day: “A Day @Renesas for Female Engineers” – Khám Phá Hành Trình Kỹ Sư Nữ Tại Renesas 08/05/2025

    Bạn là sinh viên nữ ngành kỹ thuật và đang tìm kiếm cơ hội để tiếp cận với công nghệ tiên tiến, môi trường làm việc quốc tế và những định hướng nghề nghiệp hấp dẫn? Hãy tham gia sự kiện đặc biệt “A Day @Renesas for Female Engineers” – Sự kiện dành riêng...

  • Giải bóng đá Cựu sinh viên Trường Đại học Khoa học tự nhiên, ĐHQG HCM – Lần 3 – Năm 2025 07/05/2025

    Giải bóng đá HCMUS ALUMNI League - Season 3 đã trở lại, hứa hẹn sôi động hơn bao giờ hết.Một thành viên trong Ban Tổ chức, cũng là cựu sinh viên của khoa, đang nhiệt tình kêu gọi các đồng môn tham gia để cùng tạo nên một mùa giải vui tươi và ý...

  • Recap: Trường Xuân 2025 về Thống kê và Học máy 07/05/2025

    Từ ngày 8 đến 18/4/2025, Trường Xuân Thống kê và Học máy đã diễn ra thành công tại Khoa Toán - Tin học, Trường ĐH KHTN, ĐHQG-HCM, với sự phối hợp của Viện Nghiên cứu Cao cấp về Toán (VIASM), Viện Toán học Toulouse và ENS-Paris-Saclay, Pháp. Chương...

  • TB đổi Phòng môn Lập trình hướng đối tượng ngày 7/5/2025 29/04/2025

    Thông báo về việc tạm thay đổi Phòng học vào ngày 7/5/2025 như sau: - Môn Lập trình hướng đối tượng - Lớp: 23TTH - Chuyển từ Phòng E304A sang Phòng G201 Sau tuần này, sinh viên vẫn học tại phòng E304A như ban đầu.  

  • Seminar về Đại số và lý thuyết số tháng 05.2025 23/04/2025

    Thân mời tất cả thầy cô, NCS, học viên cao học và các bạn sinh viên tham dự buổi seminar về Đại số và lý thuyết số. Đến với seminar lần này, chúng ta sẽ được giới thiệu một số nội dung về Giả thuyết ABC (giả thuyết liên quan tới Định lý...

  • Sinh viên đạt thành tích tại Kỳ thi Olympic Toán học toàn quốc 21/04/2025

    Cuộc thi Olympic Toán học sinh viên, học sinh toàn quốc lần thứ 31 – năm 2025 quy tụ những tài năng xuất sắc đến từ các trường đại học, cao đẳng, học viện và khối Trung học phổ thông chuyên trên toàn quốc. Năm nay, có 90 đoàn đến từ các trường đại học và...

Seminar Tháng 4/2023:

Talk 10: Multiscale Random Models of Deep Neural Networks

Báo cáo mời: Prof. Stéphane Mallat, Collège de France

Bio: Stéphane Mallat is an applied mathematician, Professor at the Collège de France on the chair of Data Sciences. He is a member of the French Academy of sciences, of the Academy of Technologies and a foreign member of the US National Academy of Engineering. He was a Professor at the Courant Institute of NYU in New York for 10 years, then at Ecole Polytechnique and Ecole Normale Supérieure in Paris. He also was the co-founder and CEO of a semiconductor start-up company. Stéphane Mallat received many prizes for his research in machine learning, signal processing and harmonic analysis. He developed the multiresolution wavelet theory and algorithms at the origin of the compression standard JPEG-2000, and sparse signal representations in dictionaries through matching pursuits. He currently works on mathematical models of deep neural networks, for data analysis and physics.

Thời gian: 15:00 đến 16:30, Thứ Hai, ngày 24/04/2023.

Địa điểm: Viện Nghiên cứu cao cấp về Toán (VIASM), Số 157 Chùa Láng, Đống Đa, Hà Nội.

Hình thức: Trực tiếp tại VIASM và trực tuyến

Đăng ký tham dự tại đây

Abstract: Deep neural networks have spectacular applications but remain mostly a mathematical mystery. An outstanding issue is to understand how they circumvent the curse of dimensionality to generate or classify data. Inspired by the renormalization group in physics, we explain how deep networks can separate phenomena which appear at different scales, and capture scale interactions. It provides high-dimensional model, which approximate the probability distribution of complex physical fields such as turbulences. Learning becomes similar to a compressed sensing problem, where low-dimensional discriminative structures are identified with random projections. Applications to image classification are shown.


Seminar Tháng 10/2022:

Talk 5: Reinforcement Learning Game Tree

Báo cáo mời: GS. Jeff Edmonds, York University, Canada

Bio: Professor Jeff Edmonds received his PhD in 1992 at the University of Toronto. His thesis proved lower bounds on time-space tradeoffs. He did his post doctorate work at the ICSI in Berkeley on secure data transmission over networks for multi-media applications. He joined York University in 1995. More info about Prof. Jeff Edmonds is here https://lassonde.yorku.ca/users/jeff.

Thời gian: 14:00 đến 15:30, ngày 27/10/2022

Địa điểm: Viện Nghiên cứu cao cấp về Toán (VIASM)

Hình thức: Trực tiếp tại VIASM và trực tuyến.

Đăng ký tham dự tại đây.

Link tham dự trực tuyến: 

Abstract: The goal of Reinforcement Learning is to get an agent to learn how to solve some complex multi-step task, e.g. make a pina colada or win at Go. At the risk of being non-standard, Jeff will tell you the way he thinks about this topic. Both "Game Trees" and "Markoff Chains" represent the graph of states through which your agent will traverse a path while completing the task. Suppose we could learn for each such state a value measuring "how good" this state is for the agent. Then competing the task in an optimal way would be easy. If our current state is one within which our agent gets to choose the next action, then she will choose the action that maximizes the value of our next state. On the other hand, if our adversary gets to choose, he will choose the action that minimizes this value. Finally, if our current state is one within which the universe flips a coin, then each edge leaving this state will be labelled with the probability of taking it. Knowing that that is how the game is played, we can compute how good each state is. The states in which the task is complete is worth whatever reward the agent receives in the said state. These values somehow trickle backwards until we learn the value of the start state. The computational challenge is that there are way more states then we can ever look at.


Seminar Tháng 07/2022:

Talk 2: The Long March of Theoretical Exploration of Boosting.

Báo cáo mời: GS. Zhi-Hua ZHOU, Nanjing University.

 

Thời gian: 15:00 đến 17:00 ngày 08/07/2022.

Địa điểm: Viện Nghiên cứu cao cấp về Toán (VIASM)

Hình thức: Kết hợp trực tiếp tại VIASM và trực tuyến tại Link tham dự:

và Livestream tại: https://www.facebook.com/viasmeduvn

 
Abstract: AdaBoost is a famous mainstream ensemble learning approach that has greatly influenced machine learning and related areas. A fundamentally fascinating mystery of Adaboost lies in the phenomenon that it seems resistant to overfitting, which has inspired a lot of theoretical investigations. In this talk, we will briefly introduce the long history of learning theory studies and debates about Boosting, where the recently concluding result discloses the importance of minimizing margin variance when maximizing margin mean during learning process, which provides new inspiration for the design of powerful learning algorithms such as ODMs (Optimal margin Distribution Machines).
 

Seminar gồm hai phần, phần 1 từ 15:00-16:00 với video bài giảng của GS Zhi-Hua Zhou (dài 43 phút), phần 2 từ 16:00 với Q&A và trao đổi về machine learning. Ban tổ chức gợi ý người tham gia lấy video và dành thời gian tìm hiểu trước  nội dung "The Long March of Theoretical Exploration of Boosting",  nghĩ câu hỏi và vấn đề để trao đổi trong phần 2.

Video bài giảng: Tại đây

Đăng ký tham dự: Tại đây