Bất ngờ: Facebook nói rằng Facebook A-Okay cho Tin tức!

Một nghiên cứu đã được công bố vào tuần trước trên tạp chí Khoa học điều đó cho thấy rằng thuật toán của Facebook không phải là nguyên nhân gây ra "bong bóng bộ lọc" giả định - nơi mọi người chỉ thấy những tin bài phù hợp với khuynh hướng chính trị của họ trên mạng xã hội.

Vấn đề duy nhất? Đó là một nghiên cứu của Facebook được thực hiện bởi những người làm việc cho Facebook.

Tất cả chúng ta có thực sự ngạc nhiên khi các nhà nghiên cứu của Facebook giảm thiểu tác động của việc công ty của họ thao túng nguồn cấp tin tức của mọi người không?

Nghiên cứu, Tiếp xúc với tin tức và quan điểm đa dạng về mặt tư tưởng trên Facebook, bởi Eytan Bakshy và các đồng nghiệp tại Facebook đã được xuất bản vào tuần trước trong Khoa học. Làm thế nào nghiên cứu này có thể được công bố trên tạp chí uy tín Khoa học? 1 Không phải đánh giá ngang hàng được cho là để bắt các nghiên cứu tự phục vụ được xuất bản bởi các công ty chỉ chứng minh những gì công ty muốn dữ liệu hiển thị?

Người ta phải tự hỏi làm thế nào mà những người bình duyệt đã thông qua nghiên cứu này khi được xuất bản. Nhiều bài phê bình về nghiên cứu đã được xuất bản, vì vậy tôi sẽ chỉ làm tổng hợp nhanh các vấn đề được những người khác trích dẫn. Lời phê bình này từ Christian Sandvig đã tóm tắt khá nhiều vấn đề về cách các nhà nghiên cứu Facebook xoay vòng những phát hiện của riêng họ trong nghiên cứu được công bố:

Về chủ đề so sánh, nghiên cứu tiếp tục nói rằng:

“Chúng tôi xác định một cách rõ ràng rằng… các lựa chọn cá nhân hơn là các thuật toán hạn chế việc tiếp xúc với nội dung thách thức thái độ”.

"So với xếp hạng theo thuật toán, lựa chọn của cá nhân về những gì cần tiêu thụ có tác động mạnh hơn"

Chuông báo động đang reo cho tôi. Ngành công nghiệp thuốc lá có thể đã từng tài trợ cho một nghiên cứu nói rằng hút thuốc ít nguy hiểm hơn khai thác than, nhưng ở đây chúng tôi có một nghiên cứu về việc hút thuốc của những người khai thác than. Có lẽ là khi họ đang ở trong mỏ than.

Ý tôi muốn nói là không có kịch bản nào mà “lựa chọn của người dùng” so với “thuật toán” có thể được đánh đổi, bởi vì chúng xảy ra cùng nhau […]. Người dùng chọn những gì thuật toán đã lọc cho họ. Nó là một chuỗi.

Tôi nghĩ tuyên bố thích hợp về hai điều này là chúng đều xấu - chúng đều làm tăng tính phân cực và tính chọn lọc. Như tôi đã nói ở trên, thuật toán dường như chỉ làm tăng tính chọn lọc của người dùng một cách khiêm tốn.

Thật vậy, bạn nghĩ rằng các nhà nghiên cứu của Facebook, những người mà bạn biết, đang làm việc tại Facebook, sẽ hiểu rằng bạn không thể trêu chọc và tách thuật toán ra khỏi hành vi của người dùng, vì thuật toán này phụ thuộc vào hành vi khác. Nếu không sử dụng thuật toán (mà nghiên cứu của Facebook Adam Kramer phát hiện ra không phải là điều tốt nên làm nếu không nhận được sự đồng ý của người dùng trước), bạn không thể thực sự nói tại sao người dùng lại nhấp vào một thứ nhiều hơn một thứ khác.

Nhưng bài đánh giá này về nghiên cứu trên Facebook của Zeynep Tufekci, một giáo sư tại Đại học Bắc Carolina, Chapel Hill đã viết rằng những gì dữ liệu của nghiên cứu thực sự tìm thấy được chôn trong phụ lục của nghiên cứu:

Liên kết càng cao, càng có nhiều khả năng nó sẽ được nhấp vào. Bạn sống và chết theo vị trí, được xác định bởi thuật toán newsfeed. (Hiệu ứng, như Sean J. Taylor lưu ý chính xác, là sự kết hợp của vị trí và thực tế là thuật toán đang đoán những gì bạn muốn).

Điều này hầu hết đã được biết đến, nhưng thật tuyệt khi nó được xác nhận bởi các nhà nghiên cứu của Facebook (nghiên cứu này chỉ do nhân viên của Facebook là tác giả). […]

Một phát hiện mới là thuật toán nguồn cấp tin tức (một cách khiêm tốn) ngăn chặn nội dung đa dạng, và một phát hiện quan trọng và cũng mới lạ khác là vị trí trong nguồn cấp dữ liệu có ảnh hưởng (mạnh mẽ) đến tỷ lệ nhấp.

Facebook đang hiển thị cho bạn những nội dung tin tức mà bạn có nhiều khả năng đọc hơn (vì nó đồng ý với quan điểm chính trị của bạn) và nội dung đó xuất hiện trong nguồn cấp tin tức của bạn càng cao thì khả năng bạn nhấp vào nó càng cao.

Nói cách khác, việc Facebook thao túng nguồn cấp tin tức của bạn tiếp tục là một yếu tố góp phần quan trọng trong việc xác định những gì bạn có thể sẽ nhấp vào. Và họ tiếp tục thao túng nguồn cấp dữ liệu đó để hiển thị cho bạn những câu chuyện tin tức phù hợp về mặt chính trị hơn là nếu không có bất kỳ sự thiên vị nào trong thuật toán của họ.

Và, như Tufekci lưu ý quan trọng, đây là một nhóm nhỏ người dùng Facebook được chọn lọc được nghiên cứu, chỉ vì nó thuận tiện hơn (và rẻ hơn) cho các nhà nghiên cứu Facebook nghiên cứu họ. Họ chỉ xem xét những người dùng tự xác định đảng phái chính trị của họ trên Facebook và thường xuyên đăng nhập vào dịch vụ (khoảng 4% tổng số người dùng Facebook [chỉ 9% người dùng tuyên bố đảng phái chính trị của họ trên Facebook, có nghĩa là đây không phải là mẫu bạn có thể khái quát bất cứ thứ gì từ]). Nó không nói gì về những người dùng Facebook không tuyên bố đảng phái chính trị của họ trên Facebook - hầu hết chúng ta.

Facebook có thể đã thực hiện một nghiên cứu mạnh mẽ hơn? Chắc chắn rồi, nhưng nó sẽ yêu cầu nhiều kỹ thuật nghiên cứu truyền thống hơn, chẳng hạn như tuyển dụng khảo sát trên trang web kết hợp với tuyển dụng email ngẫu nhiên ngoài trang web.

Vì vậy, đây là phát hiện không khách quan, chưa được lọc từ dữ liệu (do Tufekci cung cấp) mà các nhà nghiên cứu của Facebook dường như xoay quanh để nói rằng những gì bạn thấy trong nguồn cấp dữ liệu không phải lỗi của họ:

Các nhà nghiên cứu của Facebook kết luận rằng thuật toán nguồn cấp tin tức của Facebook làm giảm nội dung đa dạng về mặt tư tưởng, xuyên suốt mà mọi người xem từ mạng xã hội của họ trên Facebook xuống một lượng có thể đo lường được. Các nhà nghiên cứu báo cáo rằng việc tiếp xúc với nội dung đa dạng bị thuật toán của Facebook ngăn chặn 8% đối với những người theo chủ nghĩa tự do tự nhận và 5% đối với những người bảo thủ tự nhận mình.

Hoặc, như Christian Sandvig nói, “thuật toán lọc ra 1 trong 20 câu chuyện tin tức xuyên suốt mà một người bảo thủ tự nhận là nhìn thấy (hoặc 5%) và 1 trong 13 câu chuyện tin tức xuyên suốt mà một người tự do tự nhận nhìn thấy (8%). ” Bạn đang thấy ít mục tin tức mà bạn không đồng ý với những tin tức được bạn bè của bạn chia sẻ vì thuật toán không hiển thị chúng cho bạn.

Thật không may, bên ngoài Thời báo New York và một số tờ báo khác, hầu hết các trang web truyền thông tin tức chính thống chỉ đưa tin về những gì các nhà nghiên cứu Facebook đã tuyên bố trong nghiên cứu của họ mà không gây hoài nghi.

Nhưng bây giờ bạn đã biết sự thật - Facebook đã nghiên cứu một mẫu nhỏ, không mang tính đại diện, sau đó hạ thấp những gì dữ liệu của họ thực sự hiển thị để nhấn mạnh một kết quả tích cực hơn đối với công ty. Đối với tôi, đây là một ví dụ khác về việc các nhà nghiên cứu Facebook không thực sự hiểu quan điểm của nghiên cứu khoa học - chia sẻ kiến ​​thức với thế giới không thiên vị và thao túng.

Để đọc thêm…

Zeynep Tufekci: Cách thuật toán của Facebook ngăn chặn sự đa dạng nội dung (một cách khiêm tốn) và cách nguồn cấp tin tức quy định các lần nhấp của bạn

Christian Sandvig: Nghiên cứu “Đó không phải là lỗi của chúng ta” trên Facebook

NY Times: Phân cực sử dụng Facebook? Trang web cầu xin sự khác biệt

Chú thích:

  1. Đáng buồn thay, bây giờ tôi phải thêm một tạp chí khác vào danh sách các ấn phẩm khoa học đáng kính của tôi cần được xem xét kỹ lưỡng hơn. Những độc giả lâu năm của World of Psychology đều biết, danh sách đó càng dài ra mỗi năm: Khoa nhi (Nhi khoa xuất bản các nghiên cứu về công nghệ mà dường như được đánh giá bởi những người không quen thuộc với các mối quan hệ nhân quả của nghiên cứu cơ bản.), Tâm lý học mạng, Hành vi và Mạng xã hội (Cyberpsychology dường như công bố bất kỳ nghiên cứu nào về chứng nghiện Internet hoặc mạng xã hội, bất kể chất lượng của nó như thế nào.) Và bây giờ, Khoa học. [↩]

!-- GDPR -->