Phân biệt chủng tộc, vấn đề đáng lo ngại trong thời đại trí tuệ nhân tạo (AI) lên ngôi
Tôi đã nghe rất nhiều về tài chính thuật toán và những thứ như robot thông minh có khả năng cố vấn. Và tôi đang tự hỏi, liệu nó có quá cường điệu không? DATA SCIENTIST: Tôi sẽ nói rằng những con robot với khả năng như vậy thật ra không có gì đặc biệt cả. Bởi chúng chỉ là AI. ...
Tôi đã nghe rất nhiều về tài chính thuật toán và những thứ như robot thông minh có khả năng cố vấn. Và tôi đang tự hỏi, liệu nó có quá cường điệu không?
DATA SCIENTIST: Tôi sẽ nói rằng những con robot với khả năng như vậy thật ra không có gì đặc biệt cả.
Bởi chúng chỉ là AI. Không thực sự có bất cứ điều gì tiên tiến, khai sáng cả – mọi người đều đang áp dụng một công thức như nhau. Và đó là một công thức hợp lý, dù không kì diệu nhưng đủ để hoàn thành mục tiêu được đề ra. Như vậy, chúng không hề tồi nhưng quả thật là nó đã được quảng cáo thổi phồng.
Chỉ đơn giản là có một chức năng đang được tối ưu hóa nhưng nó không thực sự AI.
Tôi nghĩ rằng một trong những căng thẳng lớn nhất trong data science sắp xảy ra trong 10 năm tới sẽ có liên quan tới các công ty như SoFi, hay Earnest, “Chúng tôi đang sử dụng big data technology và machine learning để đánh giá điểm tín dụng tốt hơn. “
Tôi thực sự nghĩ rằng đây sẽ là một trong những đặc điểm then chốt trong cuộc đua tiến lên phía trước.
Tôi có nói chuyện với một người bạn từng làm việc cho một trong những công ty này. Và một trong những lời nhận xét của cậu ta là “Ồ, bọn tôi sẽ sử dụng các dữ liệu truyền thông xã hội để xác định việc liệu bạn có rủi ro tín dụng hay không” Và thường thì mọi người đều nghĩ như sau “Ồ, họ sẽ nhìn vào Facebook của tôi, xem các bài đăng để coi tôi có uống rượu vào cuối đêm thứ bảy không? Điều đó sẽ ảnh hưởng đến điểm số tín dụng của tôi không? “
Tuy nhiên mọi thứ còn kinh hơn nữa. Đó là vì, với hồ sơ truyền thông xã hội của bạn, họ sẽ biết tên của bạn, tên bạn bè của bạn và họ có thể biết cả sắc tộc của bạn. Họ có thể nói bạn giàu có như thế nào, họ có thể biết bạn có rủi ro tín dụng hay không.
Và quan điểm nhất quán của tôi là bất kỳ công ty nào trong số các công ty này đều được coi là có hành vi phân biệt chủng tộc khá là “nặng”.
Bất cứ ai nói, “Chúng tôi là một công ty AI đang làm cho vay mượn thông minh hơn”: thì coi như là đã có phân biệt chủng tộc. Chính xác luôn, 100%.
Tôi không biết là bây giờ chúng ta sẽ xử lí nó như thế nào nhưng tôi có thể cho bạn biết trong mười năm tới, sẽ có một tòa án về nó. Và tôi sẽ không ngạc nhiên nếu SoFi bị kỳ thị. Và nói chung, tôi nghĩ rằng đó sẽ là một câu hỏi ngày càng quan trọng về cách chúng ta xử lý các mô hình khoa học dữ liệu kiểu này khi mà việc sắc tộc sẽ đánh giá vấn đề tài chính của bạn.
Điều này làm tôi nhớ lại một chút về cuốn sách mới của Cathy O’Neil, Weapons of Math Destruction: Làm thế nào dữ liệu làm tăng bất bình đẳng và đe dọa tính dân chủ (2016). Một trong các lập luận của cô là nhận thức phổ biến là các thuật toán cung cấp một cái nhìn khách quan hơn, hoàn chỉnh hơn nhưng đồng thời nó cũng thể hiện sự phân biệt sắc tộc giữa con người. Ví dụ như bạn mà da đen thì nó tự động liệt bạn vào dạng thành phần cần được theo dõi bởi khả năng không ổn về tài chính chẳng hạn.
Đúng rồi. Và phần tôi thấy xúc phạm như một nhà toán học là cái ý tưởng cho rằng mọi thứ đều là do máy móc đang làm sai.
Sự thật là chúng hề làm bất cứ điều gì sai, và các thuật toán cũng không làm bất cứ điều gì sai. Bởi chúng làm gì có ý thức hay biết giá trị đạo đức, mọi thứ đều nằm ở việc cách mà chúng ta dùng chúng.
Đây thực sự là một viễn cảnh đáng lo ngại bởi nếu chúng ta chỉ biết dựa một cách mù quáng vào việc sự dụng các công nghệ cho những mục đích sai lầm thì nó như con dao cắt bỏ đi sự tự do của tôi, anh và mọi con người khác.
Vậy những công ty đó làm sai?
Cực kì sai lầm.
Bạn có thể tải hàng tấn và hàng nghìn dữ liệu nhân khẩu học, và nhận ra rằng đối với các ngân hàng thì khi thấy phần trăm người gốc phi hay phần trăm người gốc Tây Ban Nha trong mã zip quan trọng hơn tỷ lệ nợ / thu nhập của người vay khi bạn chạy một mô hình tín dụng.
Mà máy móc thì chúng chỉ biết hoàn thành mục tiêu đặt ra tốt nhất chứ không hề nghĩ tới những vấn đề nhạy cảm. Và như vậy, rất có thể một ngày nào, một con robo với AI tân tiến sẽ đưa ra lời khuyên về tài chính với nội dung gây shock như “À hình như anh là người thiểu số, da vàng nên tôi khuyên là đừng có nên nghĩ tới chuyện vay tiền ngân hàng bởi rất nhiều kẻ thuộc chủng tộc của anh mắc nợ”
Chúng chỉ đơn giản là mô tả lại xã hội của chúng ta bằng cách chân thật tới phũ phàng
Vâng. Đó là chính xác những gì họ đang làm. Tôi nghĩ nó rất đáng sợ. Tôi có thể cho bạn biết rằng rất nhiều cơ hội mà các công ty FinTech đang tìm kiếm bắt nguồn từ loại kỳ thị đó bởi vì nếu bạn là một người cho vay đủ lớn, bạn sẽ được đánh giá rất cao.
Lấy ví dụ như Sophi. Họ tái cấp vốn các khoản vay của những người đã tốt nghiệp đại học. Họ có lẽ đã không thành lập công việc của mình để trở thành siêu phân biệt chủng tộc, nhưng tôi đảm bảo với bạn rằng họ là siêu phân biệt chủng tộc trong cách họ đang làm cho vay, trong cách họ đang đưa ra quyết định cho vay.
Vậy thì có nên để một công ty như vậy tồn tại?
Tôi không biết. Tôi có thể nhìn thấy nó có hai mặt. Bạn có thể nói, “Họ là một công ty, họ đang cung cấp dịch vụ cho mọi người, mọi người muốn nó, đó là điều tốt.” Nhưng đồng thời, chính sự phân biệt chủng tộc này ngày càng càng làm tách rời những thành viên trong một xã hội. Rất khó để không xem chính sách cho vay này như một chính sách cho phép sự phân biệt chủng tộc. Và thú thật là ngay cả tôi cũng không biết làm sao cả.
Tôi chỉ nghĩ rằng sẽ có một vụ kiện tụng trong mười năm tới về nó, và bất kể kết quả là gì, nó sẽ rất thú vị.
Techtalk via thenextweb