Thông báo bài "Thuyết trình Bộ môn Giải tích"

Người thuyết trình: Lý Kim Hà
Speaker: Lý Kim Hà

Tựa: Sơ lược về phương trình Cauchy - Riemann
Title: A brief tour of Cauchy - Riemann equations

Tóm tắt: Mục tiêu chính của bài thuyết trình này là trình bày một lược sử của phương trình Cauchy - Riemann kể từ thập niên 1960. Một số bài toán liên quan cũng sẽ được bàn tới.
Abstract: The main purpose of this talk is to provide a (very) short history of Cauchy-Riemann equations from 1960's. Some related problems are also mentioned.

Thời gian: 10g ngày Thứ năm 9/1/2020, Phòng F207. Khoảng 60 đến 90 phút. Dùng phấn bảng.
Ngôn ngữ: Tiếng Việt

Bài "Thuyết trình Bộ môn Giải tích" hướng tới trình bày cho toàn thể cán bộ của Bộ môn Giải tích.

Kính mời mọi người quan tâm tham dự.


Seminar Phương trình đạo hàm riêng

Chiều thứ 4, 4/12/2019.

Địa điểm: E 202B, CS Nguyễn Văn Cừ.

Báo cáo 1: Calderon-Zygmund theory for nonlinear PDEs and applications

Thời gian: 14g00 – 15g00

Speaker: Prof. Tuoc Phan (University of Tennessee – Knoxville, US)

Báo cáo 2: Well-posedness of a fractional degenerate forward-backward problem 

Thời gian: 15g00 – 16g00

Speaker: Prof. Tan Do (Vietnamese-German University, Vietnam)


Seminar Nghiên cứu sinh Giải tích

 Ngày Sáng thứ bảy, 14/12/2019.

Địa điểm: F 207, CS Nguyễn Văn Cừ.

 Báo cáo 1: Sự tồn tại, tính bùng nổ và đánh giá tắt dần mũ cho phương trình sóng Kirchhoff-Carrier phi tuyến trong một hình vành khăn với điều kiện Dirichlet không thuần nhất

Thời gian: 9g00 – 10g00

Nghiên cứu sinh: Lê Hữu Kỳ Sơn

Tóm tắt nội dung:  Trong bài báo cáo, chúng tôi trình bày giới một bài toán Dirichlet không đồng nhất cho phương trình sóng Kirchhoff-Carrier phi tuyến trong một hình vành khăn. Đầu tiên, bằng cách áp dụng phương pháp xấp xỉ tuyến tính kết hợp với phương pháp Faedo-Galerkin, chúng tôi chứng minh sự tồn tại và duy nhất của nghiệm yếu địa phương cho bài toán được xem xét. Tiếp theo, bằng cách xây dựng phiếm hàm Lyapunov, chúng tôi chứng minh một kết quả bùng nổ ở thời gian hữu hạn cho các nghiệm có năng lượng ban đầu âm và thiết lập một điều kiện đủ để có được tắt dần mũ của các nghiệm yếu.

Báo cáo 2: Phương pháp phần tử hữu hạn trung tâm bậc thấp cho bài toán đàn hồi tuyến tính (đã hủy)

Thời gian: 10g00 – 11g00

Nghiên cứu sinh: Võ Đức Cẩm Hải.

Tóm tắt nội dung: Chúng tôi giới thiệu một phương pháp số mới tìm nghiệm xấp xĩ cho bài toán đàn hồi tuyến,gọi là phương pháp phần tử hữu hạn trung tâm bậc thấp (PTHHBT). Công thức hỗn hợp được sử dụng, với hai biến là độ dịch chuyển và hàm áp suất lần lượt được xấp xỉ bởi các hàm tuyến tính từng phần và hàm hằng từng phần trên các lưới khác nhau.
Sự tồn tại và duy nhất nghiệm, sự ổn định và hội tụ của phương pháp được chứng minh. Các mô phỏng số được tiến hành để kiểm định sự hiệu quả của phương pháp mới đề xuất trên các bài toán thử khác nhau.


Mitigating the Cost of data-driven PDE-constrained Inverse Problems Using Dimensionality Reduction and Deep Learning 

Giáo sư Tiến Sĩ Bùi Thanh Tân, Đại học Texas Austin sẽ trình bày một báo cáo về phương pháp giảm số chiều và học sâu trong tính toán số  các bài toán ngược trong Phương trình Đạo hàm riêng. 
 
Thời gian: 9h ngày 13-06-2019
Đại điểm: Phòng Seminar khoa Toán F207,  ĐHKHTN Tp HCM, 227 Nguyễn Văn Cừ. 
 
Kính mời các giảng viên, nghiên cứu sinh, học viên cao học, sinh viên có quan tâm đến tham dự. Giáo sư Bùi Thanh Tân sẽ trình bày về học bổng tiến sĩ tại Texas Austin và phỏng vấn các ứng viên có nguyện vọng tham gia chương trình tiến sĩ này trong sáng 13-6 (sau seminar) và sáng 14-6 (10h00).  Các ứng viên có nguyện vọng đề nghị đăng ký tại Văn phòng Khoa Toán đến 15h00 ngày 07/06/2019.
 
Abstract: 

Given a hierarchy of reduced-order models to solve the inverse problems for quantities of interest, each model with varying levels of fidelity and computational cost, a deep learning framework is proposed to improve the models by learning the errors between each successive levels. 

By statistically modeling errors of reduced order models and using training data involving forward solves of the reduced order models and the higher fidelity model, we train deep neural networks to learn the error between successive levels of the hierarchy of reduced order models thereby improving their error bounds. The training of the deep neural networks occurs during the offline phase and the error bounds can be improved online as new training data is observed. 

To mitigate the big-data aspect in inverse problems, we have developed a randomized misfit approach that blends random projection theory in high dimensions and inverse problem theory to effectively reduce high-dimensional data while preserving the accuracy of inverse solution.