Góc khuất đằng sau mỗi câu trả lời "thảo mai" của ChatGPT

Người điều hành bộ phận kiểm duyệt ChatGPT gặp phải chứng "tâm thần" nghiêm trọng, khi liên tục xem các nội dung độc hại, bảo lực, lạm dụng tình dục,... trong nhiều giờ đồng hồ.

Được phỏng vấn bởi The Guardian, Mophat Okinyi, kiểm duyệt nội dung OpenAI, cho biết anh ấy thường đọc tới 700 đoạn văn bản mỗi ngày và nhiều đoạn trong số đó thường có nội dung về bạo lực và tình dục, khiến anh trở nên hoang tưởng về những người xung quanh mình. Hậu quả nặng hơn những nội dung này làm tổn hại đến trạng thái tinh thần và mối quan hệ của anh ấy với gia đình.

Một cựu điều hành khác, Alex Kairu, cho biết công việc này "đã hủy hoại tôi hoàn toàn." Kairu nói rằng sau khi làm việc khoảng thời gian dài, anh ngày càng xa lánh với mọi người, thậm chí mối quan hệ với vợ anh ngày càng xấu đi.

Góc khuất đằng sau mỗi câu trả lời "thảo mai" của ChatGPT

Đại diện của OpenAI cho biết: "Chúng tôi nhận thấy đây là công việc đầy thách thức đối với các nhà nghiên cứu và nhân viên chú thích của chúng tôi ở Kenya và trên toàn thế giới, những nỗ lực của họ nhằm đảm bảo an toàn cho các hệ thống AI là vô cùng quý giá”.

OpenAI giải thích thêm rằng nhân viên được tuyển dụng bởi Sama sẽ được trã lương 1,46 USD đến 3,74 USD/ giờ để “gắn nhãn" các mô tả bằng văn bản về lạm dụng tình dục, ngôn từ kích động thù địch và bạo lực” như một phần của công việc xây dựng một công cụ để phát hiện nội dung độc hại.' 

Tuy nhiên, các công nhân nói rằng họ đã bị bóc lột và không được hỗ trợ tâm lý xã hội trong khi phải tiếp xúc với nội dung có hại, khiến họ dễ mắc “bệnh tâm thần nghiêm trọng”, thậm chí bị trả lương thấp và sa thải đột ngột.

Góc khuất đằng sau mỗi câu trả lời "thảo mai" của ChatGPT

Bên cạnh đó, những người điều hành bộ phận kiểm duyệt chỉ trích các công ty không hỗ trợ khám sức khoẻ như thoả thuận trước đó. Sama bác bỏ cáo buộc trên và cho biết những người điều hành được hỗ trợ tư vấn từ nhà trị liệu sức khỏe tâm thần 24/7 và nhận được các khoản trợ cấp y tế để hoàn trả cho các bác sĩ tâm thần. 

Hiện, bốn trong số những người điều hành đang kêu gọi chính phủ Kenya điều tra các điều kiện làm việc trong hợp đồng giữa OpenAI và Sama. 

Sama là một công ty dịch vụ chú thích dữ liệu có trụ sở tại California, sử dụng người điều hành nội dung trên khắp thế giới. Trong khi được Sama tuyển dụng vào năm 2021 và 2022 tại Nairobi để đánh giá nội dung cho OpenAI, những người kiểm duyệt nội dung cáo buộc, họ đã bị chấn thương tâm lý, bị trả lương thấp và bị sa thải đột ngột.

Bài viết liên quan

Bài viết đọc nhiều nhất

Bài viết mới trong ngày

Lên đầu trang