AI ‘nhiễm’ định kiến phân biệt giới tính, màu da

Mô hình AI tự dán nhãn hình ảnh của một nhóm nhà khoa học liên tục dán nhãn hình ảnh người đứng trong bếp là phụ nữ, dù đó là đàn ông. 

Nghi ngờ nguyên nhân một phần do những định kiến xã hội, Jieyu Zhao, nghiên cứu sinh tại Đại học California, Los Angeles, đã cùng một số đồng nghiệp tìm hiểu chân tướng.

Kết quả nghiên cứu công bố năm 2017 của họ thực sự gây sốc. Dù hình ảnh được sử dụng để huấn luyện mô hình có số lượng nữ giới xuất hiện trong không gian nhà bếp nhiều hơn 33% so với nam giới, hệ thống AI lại tăng số chênh lệch này gấp đôi, lên 68%.

Hình ảnh một người đàn ông đang nấu ăn bị dán nhãn nhầm là phụ nữ, hoặc một người phụ nữ đang cầm súng bị phân tích nhầm thành đàn ông có vẻ không phải vấn đề lớn. Nhưng AI đang dần được tích hợp vào mọi khía cạnh của cuộc sống hàng ngày và những nhầm lẫn ấy lại gây tác động đối với nhiều người.

Bởi lẽ đó, Zhao cùng nhiều nhà nghiên cứu khác tự đặt câu hỏi, liệu những định kiến xã hội, đặc biệt là phân biệt giới tính và chủng tộc, có bị khuếch đại thông qua các hệ thống máy học không. Kết quả từ hệ thống máy học ảnh hưởng thế nào tới cơ hội việc làm, cơ hội vay tín dụng, kết quả chẩn đoán y tế, thời gian ngồi tù đối với phạm nhân.

Zhao chia sẻ: “Người ta từng cho rằng con người vốn luôn có định kiến và thiên vị. Người ta cũng cho rằng mô hình máy học công bằng hơn bởi chúng được huấn luyện và học từ dữ liệu. Tuy nhiên, điều này không đúng. Chúng tôi nhận thấy các mô hình vẫn có thể học được cách phân biệt, thiên vị như con người”.

Các chuyên gia cho rằng chất lượng dữ liệu dùng để huấn luyện thuật toán máy học thường là đối tượng bị đem ra đổ lỗi.

Các mô hình dự đoán AI đưa ra kết quả trên cơ sở bằng chứng hạn hẹp, nhưng chúng có nguy cơ nhân rộng hoặc thậm chí phóng đại những thành kiến xã hội. (Nguồn ảnh: scmp)

Các mô hình dự đoán AI đưa ra kết quả trên cơ sở bằng chứng hạn hẹp, nhưng chúng có nguy cơ nhân rộng hoặc thậm chí phóng đại những thành kiến xã hội. Ảnh: SCMP.

Ông Feng-Yuan Liu, CEO kiêm nhà đồng sáng lập BasisAI có trụ sở tại Singapore, chia sẻ: “Con người tồn tại trong thế giới thực vốn có những thành kiến, thiên vị theo nhiều cách khác nhau. Khi dữ liệu được lấy từ thế giới thực, bản thân chúng cũng mang theo nhiều định kiến. Hệ thống AI từ đó sẽ tự dạy mình cách phân biệt, thiên vị”. Nơi sinh sống của nhà phát triển AI và dữ liệu sẵn có sẽ phần nào tác động đến hướng hình thành các thành kiến này.

Trong một nghiên cứu năm 2018, các nhà nghiên cứu từ Viện Công nghệ Massachusetts (MIT) và Đại học Stanford nhận thấy nhiều khác biệt về mức độ nhận dạng khuôn mặt chính xác dựa trên chủng tộc và giới tính. Nghiên cứu này thử nghiệm các chương trình nhận dạng khuôn mặt thương mại của Microsoft, IBM và Megvii. Tỷ lệ nhận dạng sai là 34,7% khi chương trình xử lý hình ảnh nữ giới có màu da tối hơn, trong khi sai số chỉ 0,8% khi phân tích hình ảnh nam giới có làn da sáng hơn.

Các nhà nghiên cứu chỉ ra rằng những bộ dữ liệu tiêu chuẩn dùng trong quá trình huấn luyện thuật toán thường sai lệch về yếu tố nhân khẩu học. Chẳng hạn, trong nhận diện khuôn mặt, một tiêu chuẩn vàng được ước tính có tỷ lệ nam giới 77,5% và tỷ lệ da trắng 83,5%.

Sai lệch trong kết quả nhận diện khuôn mặt có thể gây ra “nhiều hệ quả nghiêm trọng”, các nhà nghiên cứu cho hay. “Rất có thể sẽ có người bị buộc tội oan chỉ vì những sai lệch trong quá trình phân tích chưa hoàn thiện, nhưng người ta lại đặt niềm tin quá lớn vào nó. Thủ phạm nằm ở quá trình phân tích cảnh quay trong video an ninh”.

IBM và Microsoft, hai ông lớn được nhắc đến trong nghiên cứu của MIT và Đại học Stanford đều lần lượt lên tiếng. Trong khi MIT công bố đã cải thiện mô hình nhận diện khuôn mặt của mình, Microsoft cũng khẳng định: “Không ai được hưởng lợi từ việc triển khai công nghệ nhận dạng khuôn mặt chưa hoàn thiện với tỷ lệ lỗi cao đối với phụ nữ và người da màu. Trách nhiệm cần đặt lên vai những nhà hoạt động trong lĩnh vực công nghệ để tiếp tục triển khai các công trình quan trọng, cần thiết nhằm giảm nguy cơ xảy ra định kiến, phân biệt giới tình, màu da trong công nghệ nhận dạng khuôn mặt”.

Hệ quả đầu tiên có thể kể đến trong công tác tuyển dụng nhân sự khi nhiều công ty đang sử dụng hệ thống tự động lọc hồ sơ không đạt chuẩn. Những định kiến, nếu không được phát hiện, sẽ là nguyên nhân khiến nhiều hồ sơ đạt chuẩn không đến được tới tay nhà tuyển dụng.

Năm 2018, theo Reuters, Amazon đã bỏ cơ chế tuyển dụng AI của mình. Sau khi được huấn luyện bằng hàng loạt hồ sơ ứng tuyển nộp tới công ty trong suốt 10 năm, trong đó chủ yếu là ứng viên nam, hệ thống của Amazon tự “học” rằng nam giới là đối tượng được ưu tiên hơn nữ giới.

Theo báo cáo của Reuters, Amazon cho biết các nhà tuyển dụng của hãng “chưa bao giờ dùng công cụ này để đánh giá ứng viên”, nhưng họ cũng không phủ nhận việc sử dụng kết quả gợi ý của hệ thống trong quá trình tuyển dụng.

Khi dữ liệu cho thấy số lượng nhân viên nam của một công ty lớn hơn lượng nhân viên nữ, hệ thống có thể nhầm tưởng rằng tỷ lệ giới tính hiện nay chính là kết quả nó cần học theo, bà Dong Jing, Phó giáo sư tại Viện Tự động hóa, Viện Hàn lâm Khoa học Trung Quốc, tiết lộ.

Bà Dong giải thích: “Dù các nhà phát triển không hề có ý tạo ra định kiến như vậy, thuật toán lại chọn học đặc trưng dữ liệu đó”. Đồng thời bà cho rằng cách giải quyết vấn đề này là gỡ bỏ tham chiếu liên quan đến giới tính trong các thuật toán tuyển dụng trực tuyến.

Trong lĩnh vực chăm sóc sức khỏe, việc chẩn đoán kịp thời và hướng điều trị thích hợp có thể tạo ra khác biệt giữa ranh giới sự sống và cái chết. Khi đó, theo một bài báo được công bố tháng này trên tạp chí Y học Kỹ thuật số npj, AI sẽ trở thành con dao hai lưỡi.

Các nhà nghiên cứu cho hay những khác biệt sinh học đặc thù về giới vốn không được chú trọng trong nhiều nghiên cứu y sinh, đặc biệt khi đối tượng nghiên cứu của các dự án này chủ yếu là nam giới. Đồng thời, gần đây, ngày càng nhiều nghiên cứu chỉ ra những khác biệt giữa hai giới xoay quanh triệu chứng các bệnh mãn tính như tiểu đường, rối loạn tim mạch và rối loạn sức khỏe tâm thần.

Không xác định được những khác biệt đặc thù về giới có thể dẫn đến trường hợp tử vong. Ví dụ, theo một bài báo từ phong trào “Vai trò của phụ nữ trong sức khỏe toàn cầu” diễn ra năm ngoái, 40% phụ nữ bị ngừng tim đều không có triệu chứng đau ngực, dù đây vốn được xem là triệu chứng “điển hình” trong các nghiên cứu xưa nay. Lý do là các nhà nghiên cứu thường tập trung vào nam giới.

“Nếu chẩn đoán bệnh dựa trên các triệu chứng thường gặp ở nam giới và mặc định rằng phụ nữ cũng có triệu chứng tương tự, hậu quả trực tiếp chính là chẩn đoán sai và đưa ra phương án điều trị không đúng bệnh”, trích lời các nhà khoa học trong một nghiên cứu. Nghiên cứu này kết luận rằng nữ giới ở độ tuổi dưới 45 khi lên cơn đau tim mà không có dấu hiệu đau ngực thì nguy cơ tử vong cao gấp 14 lần nam giới cùng độ tuổi có biểu hiện đau ngực.

Kết quả từ các hệ thống AI sẽ công bằng khi cả xã hội cùng chung tay, thay vì chỉ có nỗ lực từ một vài cá nhân. Nhiều người vẫn chưa nhận ra công nghệ này có thể mang theo nhiều định kiến.

“Hiện mọi người quan tâm nhiều hơn đến hiệu suất của thuật toán và liệu thuật toán có thể khắc phục những vấn đề thực tiễn hay không. Nhưng nếu ta chỉ quan tâm đến vấn đề sau khi nó dần nghiêm trọng lên, thì đã quá muộn”, vị phó giáo sư cho hay.

Hải Yến (theo SCMP)

Nguồn bài viết

Bài trướcBộ Công Thương nói về việc Mỹ điều tra chống bán phá giá lốp xe
Bài tiếp theoVCCI: ‘Giảm 60% điều kiện kinh doanh chỉ là báo cáo trên giấy’