Hướng dẫn suy nghĩ về AI của những người hoài nghi

 Tuần này, tại hội nghị chuyên đề thường niên của Viện nghiên cứu AI Now , các chuyên gia đã tranh luận về một số vấn đề quan trọng nhất trong xã hội qua lăng kính của AI. Sự kiện đã quy tụ các giáo sư luật và chính trị, luật sư, người ủng hộ và nhà văn để thảo luận về cách chúng ta với tư cách là một cộng đồng có thể đảm bảo rằng công nghệ không làm mất ổn định công lý và bình đẳng.


Đối với khán giả, các cuộc thảo luận đã đưa ra phần giới thiệu hấp dẫn về những tuyên bố sai lầm và tình huống khó xử về đạo đức đang xoay quanh AI ngay bây giờ. Đó là một tài liệu bổ sung có giá trị cho bất kỳ ai, từ các nhà thiết kế bắt đầu làm việc với máy học cho đến những người dùng chỉ đơn giản có câu hỏi về cách dữ liệu của họ đang được sử dụng trong xã hội.


Dưới đây là bốn thông tin chi tiết về cách mà tất cả chúng ta - từ nhà phát triển, nhà thiết kế đến người dùng - đều có thể nhìn thấy rõ ràng hơn thông qua những lời quảng cáo thổi phồng. Họ đặt con mắt hoài nghi vào khả năng thực sự của AI, hệ thống giá trị định hướng hiệu quả của nó và cách các công ty công nghệ đang tiếp cận đạo đức.



[Hình ảnh nguồn: Evgeny Gromov, StudioM1 / iStock]

AI KHÔNG TRUNG LẬP

Virginia Eubanks , phó giáo sư khoa học chính trị tại SUNY Albany, nghiên cứu cách các thuật toán tác động đến cách phân phối phúc lợi ở Hoa Kỳ cho những người sống dưới mức nghèo khổ. Trong cuốn sách Tự động hóa bất bình đẳng , Eubanks khám phá cách các thuật toán được đưa vào để quyết định ai xứng đáng nhận được lợi ích và ai không.


Mặc dù chúng mang lại sự trung lập và hiệu quả, nhưng những công cụ này được xây dựng dựa trên cái mà cô ấy gọi là “chương trình xã hội sâu sắc của Hoa Kỳ” – phân biệt đối xử với người nghèo, phân biệt chủng tộc, phân biệt đối xử theo giới tính.


“Đặc biệt trong công việc của tôi trong các dịch vụ công, những công cụ này được tích hợp dưới dây. Chúng tôi coi đó là những thay đổi hành chính, không phải là các quyết định chính trị do hậu quả, ”cô nói. “Chúng tôi phải bác bỏ rằng họ chỉ đang tạo ra hiệu quả. . . Nó tạo ra ý tưởng rằng không có đủ cho tất cả mọi người. Nhưng chúng ta đang sống trong một thế giới dồi dào, và có đủ cho tất cả mọi người ”.


Nói cách khác, nhìn bề ngoài thì AI có vẻ “hiệu quả” - xét cho cùng, máy móc được cho là vô tư - nhưng trên thực tế, đó là bất cứ điều gì ngoại trừ. Rất có thể, việc đưa ra các quyết định đầy rẫy những bất công mang tính hệ thống sẽ nhanh hơn. Cẩn thận với bất kỳ tuyên bố nào rằng AI là trung lập.



[Hình ảnh nguồn: Evgeny Gromov, StudioM1 / iStock]

"AI" THƯỜNG DỰA VÀO NHIỀU LAO ĐỘNG ĐƯỢC TRẢ LƯƠNG THẤP CỦA CON NGƯỜI

Nếu ai đó tuyên bố sản phẩm, dịch vụ hoặc ứng dụng của họ đang sử dụng AI, bạn không nhất thiết phải tin vào điều đó. Ngày nay, AI thường được sử dụng như một công cụ tiếp thị - và che khuất những con người đang thực sự làm công việc.


Nhà văn và nhà tài liệu Astra Taylor cho biết: “Rất nhiều thứ vượt qua đối với tự động hóa không thực sự là tự động hóa . Cô ấy mô tả một khoảnh khắc khi cô ấy đang đợi để lấy bữa trưa tại một quán cà phê và một khách hàng khác bước vào, kinh hãi và tự hỏi làm sao ứng dụng biết rằng đơn đặt hàng của anh ấy đã sẵn sàng sớm 20 phút. Người phụ nữ đứng sau quầy chỉ nhìn anh và nói, "Tôi vừa gửi cho anh một tin nhắn."


Taylor nói: “Anh ấy tin rằng đó là một con robot. "Anh ấy không thể nhìn thấy con người lao động ngay trước mắt mình."


Cô ấy gọi quá trình này là  giả lập : “Fauxtomation tạo ra sức lao động vô hình của con người để làm cho máy tính có vẻ thông minh hơn chúng”.



[Hình ảnh nguồn: Evgeny Gromov, StudioM1 / iStock]

ĐỪNG CHỈ NÓI VỀ ĐẠO ĐỨC - HÃY NGHĨ VỀ QUYỀN CON NGƯỜI

“Đạo đức” đã trở thành thuật ngữ phổ biến để suy nghĩ về cách các thuật toán và AI sẽ tác động đến xã hội. Nhưng đối với Philip Alston , giáo sư luật tại NYU, người hiện đang là Báo cáo viên đặc biệt của Hội đồng Nhân quyền Liên hợp quốc về vấn đề nghèo đói cùng cực và nhân quyền, thuật ngữ này quá mờ nhạt.


Alston nói: “Trong lĩnh vực AI, chúng ta đã quen với việc nói về bất bình đẳng, tác động của tự động hóa, nền kinh tế hợp đồng biểu diễn. “Nhưng tôi không nghĩ khía cạnh nhân quyền xuất hiện thường xuyên. Một trong những vấn đề là có sự lơ là của cả hai phía. Những người AI không tập trung vào nhân quyền. Có xu hướng nói về đạo đức là không xác định và không thể đếm được, một cách thuận tiện. Và về mặt nhân quyền, nó nằm ngoài phạm vi của chúng tôi ”.


Trong một báo cáo năm 2017 , Alston đã ghi lại những chuyến đi của mình trên khắp nước Mỹ để nghiên cứu về tình trạng nghèo cùng cực. Ông đặt câu hỏi liệu các nhà hoạch định chính sách có suy nghĩ đủ về việc sử dụng công nghệ học máy đang tác động như thế nào đến những người dễ bị tổn thương nhất trong nước - và liệu nó có vi phạm nhân quyền hay không. “Điều cực kỳ quan trọng đối với những khán giả quan tâm đến AI phải nhận ra điều đó khi chúng tôi sử dụng hệ thống phúc lợi xã hội và. . . trên hết là cách để làm cho nó hiệu quả hơn, những gì chúng tôi đang làm là giảm gấp đôi sự bất công, ”ông nói.


Bất chấp những lời hùng biện tuyên bố AI sẽ giải quyết một loạt bệnh tật của con người, chúng ta phải cẩn thận trước tiên nó không kích hoạt hoặc làm trầm trọng thêm chúng.



[Hình ảnh nguồn: Evgeny Gromov, StudioM1 / iStock]

CHÚNG TA CŨNG CẦN QUY TRÁCH NHIỆM CHO CHÍNH PHỦ VÀ CÁC TẬP ĐOÀN

Trong khi có rất nhiều cuộc thảo luận về việc làm thế nào để công nghệ AI có trách nhiệm giải trình, Sherrilyn Ifill , chủ tịch kiêm giám đốc kiêm cố vấn của Quỹ Bảo vệ Pháp lý và Giáo dục của NAACP, nhắc chúng ta rằng chính phủ và các tập đoàn cũng cần phải chịu trách nhiệm.


Bà nói: “Chính phủ dựa vào các tập đoàn để phát triển công nghệ. "Một khi nó được mở ra, rất khó để đặt lại vào hộp."


Ifill chủ yếu nói về sự phổ biến ngày càng tăng của các thuật toán nhận dạng khuôn mặt, vốn đang được các đồn cảnh sát sử dụng để nhắm mục tiêu không công bằng đến những người da màu. Bằng cách thiếu suy nghĩ trong việc triển khai công nghệ và hành động như thể “chỉ là một người tiêu dùng khác của một công ty”, cô ấy tin rằng chính phủ đã không còn hành động như chính phủ nữa.


Ifill nói: “[Chính phủ] phải nắm giữ lòng tin của công chúng. "Chúng tôi đang chứng kiến ​​chính phủ thất bại trong công việc."



[Hình ảnh nguồn: Evgeny Gromov, StudioM1 / iStock]

NẾU BẠN ĐANG THIẾT KẾ BẰNG AI, HÃY TỰ HỎI MÌNH NHỮNG CÂU HỎI SAU

Eubanks nói rằng cô ấy thường được yêu cầu về “kế hoạch năm điểm để xây dựng công nghệ tốt hơn”.


Mặc dù cô ấy không nghĩ rằng công nghệ là câu trả lời cho vấn đề chính sách (thay vào đó, "chúng ta cần hướng tới các hệ thống chính trị hoạt động như tầng chung chứ không phải nhiệt kế đạo đức"), nhưng có một số câu hỏi mà cô ấy luôn yêu cầu các nhà thiết kế suy nghĩ khi họ đang xây dựng công nghệ.


Công cụ này có làm tăng quyền tự quyết và phẩm giá của những người mà nó nhắm đến không?

Nếu nó nhằm vào một người nào đó không phải là những người nghèo, nó có thể chấp nhận được không?

Mặc dù những câu hỏi này được điều chỉnh theo hướng tập trung của Eubanks vào các thuật toán phân phối phúc lợi, nhưng đặc biệt, câu hỏi đầu tiên là câu hỏi mà mọi nhà thiết kế nên hỏi về công việc của họ. Khi bạn đang cố gắng trợ giúp những người sử dụng công nghệ, trước tiên và quan trọng nhất, bạn cần đảm bảo rằng công cụ của bạn sẽ khẳng định quyền tự quyết và phẩm giá của người dùng.

Nhận xét

Bài đăng phổ biến từ blog này

Adobe đang tăng gấp đôi số giao diện giọng nói

The Instant Pot of weed cuộn khớp của bạn cho bạn

Ý tưởng cấp tiến đằng sau thương hiệu nhà bếp này? Bán ít công cụ hơn