5/22/2015

Chất lượng giáo dục VN hơn Mỹ và Úc: Một diễn giải khác


Nguyễn Văn Tuấn
Theo Tuấn's blog


Tuần vừa qua, Tổ chức Hợp tác và Phát triển Kinh tế (OECD) vừa công bố một báo cáo về kĩ năng cơ bản phổ quát của học sinh thuộc 76 nước trên thế giới. Theo đó, Việt Nam đứng hạng 12, trên cả các nước tiên tiến như Mĩ, Úc, và nhiều quốc gia Âu châu.

Kết quả này làm cho giới quản lí giáo dục có lí do tốt đề hài lòng. Nhưng chính kết quả đó cũng làm cho rất nhiều người ngạc nhiên, vì… khó tin. Cũng như trong nghiên cứu khoa học, bất cứ một kết quả nào quá đẹp, thì thái độ đầu tiên phải là nghi ngờ, và đòi hỏi bằng chứng thuyết phục hơn nữa, kết quả xếp hạng của OECD cũng thế. Trong bài này tôi muốn diễn giải kết quả đó theo một cách nhìn khác.

Không phản ánh chất lượng giáo dục

Chất lượng giáo dục là một vấn đề rất khó định lượng, càng khó so sánh. Các chuyên gia giáo dục thường đánh giá chất lượng của một nền giáo dục qua 3 nhóm chỉ tiêu liên quan đến đầu vào (input), qui trình (process), và đầu ra (output).

Đầu vào có thể là nguồn lực và tài chính đầu tư cho giáo dục, cơ sở vật chất của hệ thống trường học, trình độ chuyên môn của thầy cô, v.v. Các chỉ tiêu liên quan đến qui trình thường tính đến sự bình đẳng trong giáo dục giữa các thành phần xã hội, sự chuyển tiếp từ trường học sang lao động, môi trường học tập, và tổ chức.

Các chỉ tiêu phản ánh đầu ra bao gồm điểm thi các môn học (văn, toán, khoa học, ngoại ngữ, v.v.), tỉ lệ bỏ học, tỉ lệ vào đại học, tỉ lệ ở lại lớp, v.v. Nói chung, để đánh giá chất lượng giáo dục một cách khách quan và đầy đủ đòi hỏi rất nhiều nỗ lực nghiên cứu và phân tích các chỉ tiêu trên. Nên nhớ rằng các chỉ tiêu trên thường mang tính địa phương và phụ thuộc vào văn hoá, nên việc so sánh chất lượng giữa các quốc gia là một việc làm rất khó khăn.

Kết quả xếp hạng của OECD không có tính tổng hợp như tôi vừa mô tả. Thật ra, cách xếp hạng của OECD rất đơn giản: họ dựa vào điểm kiểm tra môn toán và khoa học của một nhóm học sinh 15 tuổi tham gia vào chương trình kiểm định PISA năm 2012. Đây chính là mấu chốt của vấn đề. Chương trình kiểm định PISA năm 2012 tập trung vào môn toán, nhưng cũng có đánh giá môn khoa học, và đọc và hiểu.

Kết quả chương trình PISA 2012 cho thấy điểm toán của học sinh Việt Nam là 511 điểm, cao hơn 17 điểm so với trung bình các nước OECD (494 điểm). Điểm môn khoa học của học sinh Việt Nam là 528 điểm, cao hơn trung bình OECD đến 27 điểm. Dựa vào kết quả hai môn này, năm nay OECD xếp Việt Nam đứng hạng 12 toàn cầu. Với hạng này, Việt Nam cao hơn Úc, Mĩ, Pháp, Anh, nhưng thấp hơn Singapore (hạng 1), Hồng Kông (hạng 2), Hàn Quốc (hạng 3), Nhật và Đài Loan (hạng 4), Phần Lan, Thuỵ Sĩ, Hà Lan, Canada, và Ba Lan.

Do đó, cách xếp hạng của OECD như mô tả trên không phản ánh chất lượng giáo dục. Không cần nói ra, chúng ta cũng thấy chương trình kiểm định như thế không phản ảnh toàn bộ khả năng học tập của học sinh. Nó càng không phản ảnh được môi trường học tập vốn được xem là quan trọng hơn 3 môn học đó.

Có lẽ kết quả PISA cho thấy các em học sinh Việt Nam tham gia đã thuộc bài tốt, và ngoài cái đó thì chúng ta không biết các em còn tốt/dở khía cạnh nào khác. Không thể nào chỉ dựa vào hai môn học của một nhóm học sinh 15 tuổi để nói về chất lượng giáo dục của một quốc gia. Nếu làm như thế thì quả thật đó là cách làm quá phiến diện.

Điều quan trọng cần phải hiểu đúng là kết quả của PISA do đó chỉ là một “bức tranh” ở một thời điểm nhất định, chứ không phản ảnh điểm lâu dài của học sinh. Ngoài ra, còn có nghiên cứu cho thấy những em học sinh có điểm cao trong PISA không phải là những em có thành tích học tập tốt sau đó. Nói cách khác, điểm PISA không phản ảnh đúng trình độ học tập của học sinh. Vì thế, điểm PISA không phản ánh được chất lượng của một nền giáo dục.

Tính đại diện của kết quả?

Có bằng chứng cho thấy những em học sinh ở Việt Nam tham gia vào chương trình kiểm định của PISA không mang tính đại diện cho cả nước. Một bài báo trên Vietnamnet năm 2013 cho chúng ta biết rằng "Để giới thiệu về các lĩnh vực Toán, Khoa học, Đọc hiểu, VN đã nghiên cứu kỹ tất cả các dạng bài thi PISA đã công bố, tóm tắt và khái quát các dạng bài thi với các yêu cầu kỹ thuật làm từng dạng bài thi, từng loại câu hỏi để giáo viên nắm được kỹ thuật về giới thiệu cho học sinh. Tiếp đó, ngành GD-ĐT tổ chức tập huấn cho cán bộ cốt cán từ trung ương đến địa phương.

Để đưa PISA vào trường phổ thông, Bộ chỉ đạo trên toàn quốc các giáo viên đã được tập huấn PISA thông qua các buổi sinh hoạt chuyên môn hàng tuần, thảo luận từng dạng bài thi và các dạng câu hỏi thi PISA. Giáo viên giới thiệu cho học sinh một số câu hỏi thi PISA được in trong tài liệu tập huấn. Có trường xây dựng được mạng nội bộ đã đưa lên mạng các dạng bài thi PISA cho học sinh làm, mở cuộc thi nhỏ tìm hiểu về PISA." Như vậy đây Việt Nam đã chuẩn bị các em cho cuộc thi chọi này, chứ các em không được chọn một cách ngẫu nhiên.

Cách huấn luyện "gà chọi" này làm cho kết quả các môn toán, khoa học, và đọc và hiểu của Việt Nam khá khác với các nước khác. Ở các nước như Úc và Mĩ người ta không có những chương trình huấn luyện gà chọi như Việt Nam. Do đó, kết quả của các nước này có độ khác biệt cao hơn so với Việt Nam.
Độ khác biệt giữa các học sinh có thể phản ảnh qua hệ số biến thiên. Tôi đã tải dữ liệu PISA và phân tích hệ số biến thiên giữa các học sinh ở Việt Nam, Thái Lan, Singapore, Úc, và Mĩ (Bảng 1). Như có thể thấy, các nước khác, ngay cả Singapore có điểm cao nhất, có hệ số biến thiên cao hơn Việt Nam.



Bảng 1: Điểm trung bình và phần trăm khác biệt giữa các học sinh (%)

Chẳng hạn như điểm môn toán, độ khác biệt giữa các học sinh Việt Nam chỉ 16%, rất thấp so với Thái Lan (21%), Úc (20%) và Mỹ (19%). Ngay cả điểm môn khoa học cũng là một ngạc nhiên, vì độ khác biệt giữa các học sinh Việt Nam chỉ 14%, so với 19-20% ở các nước khác. Tôi nghĩ rằng hệ số biến thiên của Việt Nam thấp một cách ngạc nhiên là do có sự huấn luyện rất tốt trước khi tham gia chương trình kiểm tra PISA. Điều đó cũng cho thấy điểm thi của học sinh Việt Nam trong chương trình PISA không hề đại diện cho quần thể học sinh của cả nước.

Vấn đề dữ liệu

PISA là một chương trình kiểm định được thiết kế rất bài bản và nghiêm chỉnh. Nhưng khi thực hiện ở qui mô lớn thì có nhiều vấn đề phát sinh. Có một sự thật rất quan trọng nhưng ít ai chú ý là vấn đề thiếu dữ liệu. Chỉ có khoảng 10% học sinh trả lời tất cả 28 câu hỏi đọc hiểu. Điều này có nghĩa là nếu một em học sinh có điểm khoa học là 500 (cũng là điểm trung bình của khối OECD) thì em này chỉ trả lời được 46% câu hỏi mà thôi. Một học sinh có điểm 400 nghĩa là em này chỉ trả lời 23% số câu hỏi. Nói cách khác, rất nhiều câu hỏi không được trả lời.

Sự thật trên có nghĩa gì? Nó có nghĩa là khi PISA so sánh giữa các nước thì chẳng khác gì so sánh giữa trái cam và trái táo. Một ví dụ để minh họa: học sinh Việt Nam có thể trả lời câu hỏi 1-20, còn học sinh Trung Quốc có thể trả lời câu hỏi 15-28. Những câu hỏi mà học sinh Việt Nam trả lời có thể khó hơn những câu hỏi mà học sinh Trung Quốc trả lời. Do đó, khi so sánh giữa hai nhóm thì kết quả sẽ khó mà khách quan.

Trong tình huống câu hỏi bị bỏ trống như thế, các nhà phân tích của PISA làm gì? Họ sử dụng một mô hình thống kê có tên là Rasch để khắc phục vấn đề. Rất khó giải thích mô hình Rasch trong bài này, nhưng phương pháp này dựa vào giả định rằng các câu hỏi có trọng số như nhau, và cách lấp vào khoảng trống các câu hỏi là dùng xác suất hậu định (posterior probability). Giả định này rất "mạnh" (hiểu theo nghĩa thiếu tính thực tế), bởi vì câu trả lời hay khả năng trả lời có thể còn tuỳ thuộc vào văn hoá của từng nước.

Ngoài ra, họ sử dụng một phương pháp thống kê khác có tên là imputation để lấp vào những câu hỏi mà học sinh bỏ trống. Phương pháp này có thể giải thích nôm na như sau: dựa vào các câu trả lời mà các em học sinh đã làm, nếu các em học sinh trả lời tất cả các câu hỏi, thì kết quả sẽ xảy ra có thể ước tính.

Nói cách khác, các nhà nghiên cứu tạo ra dữ liệu không có thật! Đây là một phương pháp khá nguy hiểm vì nó tuỳ thuộc vào những câu trả lời mà các em học sinh đã nỗ lực trong test. Trong các công trình nghiên cứu quan trọng rất ít ai dám ứng dụng phương pháp imputation vì nó có thể dẫn đến sai lệch nghiêm trọng.

Dữ liệu một chiều

Về mặt kĩ thuật, tất cả những câu hỏi của PISA rất tương quan với nhau. Dù thi 3 môn nhưng điểm 3 môn rất tương quan với nhau, nên chỉ cần biết một môn là giải thích 75% môn kia. Nói cách khác các môn học chỉ phản ảnh một yếu tố đơn thôi, nếu thiết kế tốt các môn học sẽ ít tương quan với nhau. Điều này có nghĩa gì? Nó có nghĩa là khi PISA xếp hạng giữa các nước chủ yếu là dựa vào yếu tố này, nhưng yếu tố này không đồng đều giữa các nước.

Nói cách khác, thứ hạng của một nước trong bảng xếp hạng có thể thay đổi nếu xem xét đến yếu tố thứ 2 hay thứ 3. Nói cách khác nữa, bảng xếp hạng của PISA không nói gì về sự thông minh của học sinh Việt Nam.

Vì những vấn đề về phương pháp, việc so sánh hay xếp hạng giữa các nền giáo dục có nền tảng văn hoá và triết lí giáo dục khác nhau càng làm cho vấn đề trở nên khó diễn giải. Ở đây, tôi phải mở ngoặc để nói thêm rằng ngoài PISA, còn có nhóm xếp hạng dựa vào chương trình TIMSS (Trends in International Maths and Science Study – Xu hướng học toán và khoa học quốc tế) cũng là một nhóm xếp hạng giáo dục có uy tín.

Nhưng kết quả xếp hạng của PISA và TIMSS không nhất quán với nhau. Chẳng hạn như Phần Lan có năm đứng đầu trong bảng xếp hạng của PISA, nhưng lại đứng hạng trung bình của TIMSS. Rất nhiều trường hợp như thế đã xảy ra trong quá khứ. Chúng ta phải rất thận trọng, không nên quá đặt nặng hay quá tin vào các chương trình đánh giá và xếp hạng như PISA hay TIMSS.

Nói tóm lại, các phân tích trên đây cho phép tôi diễn giải kết quả xếp hạng giáo dục một cách khác với cách hiểu của giới báo chí, và có lẽ cũng khác với cách hiểu của OECD. Rõ ràng, kết quả hai môn toán và khoa học của một nhóm học sinh thiếu tính đại diện cho cả nước thì không thể nào phản ảnh chất lượng giáo dục của Việt Nam.

Trong khoa học xã hội, người ta phân biệt cái gọi là tính hợp lí bề mặt và hợp lí nội tại. Kết quả xếp hạng của OECD về nền giáo dục Việt Nam dựa trên điểm kiểm định trong chương trình PISA nhìn bề ngoài thì có tính hợp lí vì nó được thiết kế một cách có hệ thống và được thu thập dữ liệu đúng qui trình. Nhưng những kết quả bằng con số thống kê đó không phản ảnh được cái phần "chất" của nền giáo dục, không biết đến con số hơn 100 ngàn học sinh Việt Nam đang "tị nạn" giáo dục ở nước ngoài, kể cả ở những nước như Úc và Mỹ mà bảng xếp hạng OECD cho là kém hơn Việt Nam.

Chỉ có người ở trong chăn mới biết chăn có rận; con số thống kê của OECD không bao giờ nhận dạng được những bất cập trong nền giáo dục Việt Nam. Do đó, nói một cách dân dã vừa ngắn gọn vừa dễ hiểu: bảng xếp hạng giáo dục của OECD nói vậy mà thực tế không phải vậy.

Bài đã đăng trên Tuần Việt Nam:

(1) Phần I: http://vietnamnet.vn/vn/tuanvietnam/237596/viet-nam-vuot-my--uc-nho----luyen--ga-choi--.html
(2) Phần II: http://vietnamnet.vn/vn/tuanvietnam/237878/giao-duc-vn--vuot-mat--my--noi-vay-ma-khong-phai-vay.html

No comments:

Post a Comment