Bí quyết để xây dựng lại niềm tin trong công nghệ: Con người thông minh hơn về mặt cảm xúc

Từ những cuộc trò chuyện của tôi với các nhà lãnh đạo ngành tại các công ty như Dell và các nhà khoa học dữ liệu như Jon Christiansen, vấn đề chính là thu hẹp khoảng cách niềm tin và đảm bảo sự hiểu biết sâu sắc hơn về AI nằm trong chính con người của chúng ta.
Bí quyết để xây dựng lại niềm tin trong công nghệ: Con người thông minh hơn về mặt cảm xúc
[Ảnh: ROBYN BECK / AFP / Getty Images]
BỞI MEGHAN E. BUTLERĐỌC 8 PHÚT
Có một sự thật xã hội được hiểu một cách phổ biến nhưng khó thừa nhận: Chúng tôi không thích những gì chúng tôi không tin tưởng và chúng tôi không tin những gì chúng tôi không hiểu.

Ở đây có những vấn đề nan giải nhất của con người, điều hướng các công nghệ tiên tiến, đặc biệt là sự kết hợp giữa các phát triển thay đổi trò chơi nhằm cải thiện trải nghiệm của con người so với kết quả chưa biết của các máy suy nghĩ và AI.

Trong nỗ lực hiểu rõ hơn về khoảng cách tin cậy giữa con người và các công nghệ tiên tiến, và tìm giải pháp để đóng nó, tôi đã tổ chức các cuộc trò chuyện với các nhà lãnh đạo ngành tại các công ty như Dell và các nhà khoa học dữ liệu như Jon Christiansen. Các vấn đề chính không gây sốc, nhưng chúng cực kỳ quan trọng bởi vì, khá đơn giản, chúng thực sự có thể được giải quyết:

Khoảng cách tin cậy là kết quả của các tiêu chuẩn truyền thông kém
Công nghệ phức tạp như AI đòi hỏi một cách tiếp cận mới để xây dựng niềm tin
Trách nhiệm xây dựng lòng tin nằm ở các nhà lãnh đạo tổ chức
Có lẽ sâu xa nhất, mọi người đều chỉ ra một sự thật đơn giản trực tiếp hoặc gián tiếp: Đối với công nghệ do con người tạo ra cho con người, bí mật để thu hẹp khoảng cách niềm tin nằm ở trí tuệ cảm xúc rất nhân văn của chúng ta.

Theo các chuyên gia, đây là cách các nhà lãnh đạo AI có thể thiết lập các tiêu chuẩn trong các tổ chức của họ và trong toàn ngành để cùng nhau thu hẹp khoảng cách tin cậy và đảm bảo sự hiểu biết và chấp nhận AI nhiều hơn.

THỪA NHẬN KHOẢNG CÁCH TIN CẬY
Hiệu ứng hộp đen của nhóm đen, nơi các quyết định và hành động được đưa ra khỏi tầm nhìn và vượt ra ngoài sự hiểu biết tập thể, phần lớn chịu trách nhiệm cho khoảng cách tin cậy giữa con người và các công nghệ tiên tiến. Điều cuối cùng có nghĩa là khoảng cách tin cậy là kết quả của một thất bại lớn trong giao tiếp.

Chúng tôi tin tưởng các hệ thống phức tạp. Trí thông minh nhân tạo được coi là một hệ thống phức tạp và đó là một loài động vật rất khác biệt, đã đề nghị Olaf Groth, người sáng lập và đối tác quản lý của Cambrian AI, đồng tác giả của Bộ luật Solomon: Nhân loại trong một thế giới của những cỗ máy tư duy.

Groth giải thích rằng các hệ thống phức tạp khác với các hệ thống phức tạp ở chỗ chúng là những thiết kế tinh vi đòi hỏi chuyên môn của con người để hiểu, nhưng phần lớn, chúng là tổng của các bộ phận của chúng. Nếu một cái gì đó bi thảm xảy ra, như một vụ tai nạn máy bay, nó có thể được giải mã cho một vấn đề trong hệ thống của nó.

Tuy nhiên, các hệ thống phức tạp không thể giảm xuống các bộ phận của chúng và thường là kết quả của hiện tượng nổi lên. Trí tuệ nhân tạo, một hệ thống phức tạp, là một sản phẩm của sự xuất hiện. Các bộ phận không hoạt động giống nhau như chúng riêng lẻ và chúng bị ảnh hưởng phần lớn bởi các yếu tố bên ngoài và bộ dữ liệu. Điều này làm cho AI có vẻ bí ẩn và không thể đoán trước, do đó không đáng tin cậy.

Bằng cách thể hiện sự tự nhận thức của tổ chức, và trước tiên thừa nhận nỗi sợ hãi về các kết nối xác thực, chưa biết có thể được thực hiện đối với niềm tin của con người nóng bỏng. Và niềm tin của con người nóng bỏng là sự hỗ trợ của chức năng liên lạc của tổ chức phối hợp với lãnh đạo của nó.

HÃY MINH BẠCH VỀ Ý ĐỊNH
Đối với những người trong chúng ta bên ngoài hội trường đổi mới, nhưng những người dự kiến ​​sẽ áp dụng sản phẩm của họ, điều đó không đủ để củng cố niềm tin của chúng ta bằng cách thừa nhận thực tế là nó thiếu. Lòng tin của chúng tôi cũng phải được giữ, và để làm như vậy đòi hỏi sự rõ ràng và minh bạch.

Đừng nhầm lẫn, minh bạch không có nghĩa là tiết lộ các thuật toán hoặc bí mật thương mại. Nó có nghĩa là đáp ứng nhu cầu của chúng tôi để hiểu ý định và cân nhắc đằng sau công nghệ nhiều hơn so với cơ học thực tế.

Nó không đủ để nói về sự cân nhắc sâu sắc trong phát triển. IBM đã tạo ra một tiêu chuẩn để đảm bảo trách nhiệm giải trình giữa những người tạo ra AI và thiết kế nó sẽ được sử dụng bởi bất kỳ tổ chức nào đang phát triển các sản phẩm AI.

Chúng tôi nên cung cấp thêm thông tin. Tính minh bạch xây dựng niềm tin vào những người sẽ sử dụng công nghệ này, đã đề nghị Francesca Rossi, nhà lãnh đạo toàn cầu về đạo đức AI của IBM. Chúng tôi tin rằng mọi người nên nhận thức và giáo dục nhiều hơn [về sự cân nhắc của các nhà phát triển.] Đạo đức hàng ngày cho trí tuệ nhân tạo của chúng tôi đưa ra bảy yêu cầu và các câu hỏi mà mỗi thành viên nhóm AI phải trả lời.

Giống như cha mẹ chịu trách nhiệm cho con cái của họ, mỗi người chịu trách nhiệm nuôi dưỡng AI phải chịu trách nhiệm cho sự sáng tạo của họ.

KHÔNG THAY THẾ CON NGƯỜI
Giảm bớt nỗi sợ hãi và xây dựng niềm tin không đến dễ dàng hay nhanh chóng, nhưng có thể được thực hiện một cách hiệu quả bằng cách cải thiện khả năng giải thích nói chung, và định vị các công nghệ tiên tiến về cải tiến con người cho các bước đi của công nghệ nhằm giúp con người, không phải là bước nhảy vọt của loài người.

Lấy Dell làm ví dụ. Nó đang tạo ra AI tập trung vào con người bằng cách giữ người dùng ở vùng năng suất tối ưu của họ. AI của nó tăng trải nghiệm làm việc với một bộ đôi kỹ thuật số có thể có xu hướng phù hợp với hoạt động điện toán hàng ngày để người dùng có thể tập trung vào công việc quan trọng hơn là, quản lý thư rác đến.

Ông John Roese, chủ tịch và CTO của Dell EMC cho biết, AI sẽ không thành công nếu điều đó không làm giảm căng thẳng của con người, hoặc làm dịu họ hoặc cho phép họ tận hưởng trải nghiệm này. Một trong những biện pháp thành công của chúng tôi là đánh dấu xem nó có cải thiện tình trạng của con người hay không. Và cách tốt nhất để đo lường đó là đánh giá mức độ căng thẳng của những người sử dụng nó. Họ có thất vọng không? Các dấu hiệu sinh lý học của họ cho thấy họ đang sử dụng nhiều năng lượng hơn để thực hiện các nhiệm vụ, hoặc ít hơn?

Những người kể chuyện như Dell đang phục vụ chúng tôi, thay vì những người thay thế chúng tôi, sẽ nhận được sự tin tưởng, sự chú ý của chúng tôi và việc nhận con nuôi của chúng tôi với tốc độ lớn hơn nhiều so với những gì cho chúng ta biết AI sẽ chiếm lĩnh thế giới.

Gabriel Fairman, người sáng lập và Giám đốc điều hành của Cục Công trình, một nền tảng do AI điều khiển để phối hợp phân phối nội dung toàn cầu trong các tổ chức, cũng tin rằng khoảng cách niềm tin đã đặt ra một thách thức về truyền thông. Giải pháp nằm ở việc chuẩn bị cho mọi người để họ có thể tận dụng tốt nhất AI chứ không phải sợ nó.

AI AI đặc biệt hữu ích khi nhận dạng các mẫu dữ liệu trong các tập dữ liệu khổng lồ. Điều đó không có nghĩa là nó sẽ thay thế con người trong việc phân tích các bộ dữ liệu, ông nói. Có nghĩa là con người sẽ chịu trách nhiệm tìm hiểu ý nghĩa đạo đức của các bộ dữ liệu đó, mối tương quan gián tiếp giữa các bộ dữ liệu, hành động mong muốn từ các bộ dữ liệu này.

Để đạt được sự hiểu biết này, các chiến lược truyền thông của tổ chức AI phải tập trung vào giáo dục và giải thích theo cách nhấn mạnh giá trị của con người và trách nhiệm của người dùng đối với kết quả của một cách tiếp cận có tác động mạnh hơn nhiều so với các đặc điểm kỹ thuật.

NUÔI DƯỠNG NHÂN TÍNH CỦA CÁC NHÀ CÔNG NGHỆ
Tập thể, chúng tôi, hội đồng bên ngoài dự kiến ​​sẽ áp dụng AI, chỉ là một mặt của khoảng cách tin cậy. Phía bên kia là các nhà công nghệ, những thiên tài chịu trách nhiệm về mã hóa, lập trình và phát triển công nghệ, các đại diện con người của chính công nghệ.

Mặc dù các kỹ năng mềm của Cameron và các chương trình khác liên quan đến trí tuệ cảm xúc có sẵn cho các nhà lãnh đạo cao cấp nhất, nhưng nó lại chậm được điều chỉnh cho phần còn lại của tổ chức, đặc biệt là cho các thế hệ trẻ và các nhà lãnh đạo mới nổi.

Cũng giống như chúng ta trải qua khóa đào tạo quấy rối tình dục tại nơi làm việc, cần có một chương trình giảng dạy về trí tuệ cảm xúc, đặc biệt là đối với các nhà khoa học dữ liệu đang viết các mô hình, chuyên gia Lisa Seacat DeLuca, giám đốc của IoT & kỹ thuật số sinh đôi tại IBM cho biết.

Toàn bộ mục tiêu của mạng lưới thần kinh AI, tương đương kỹ thuật số của bộ não con người là để tái tạo những gì bộ não của chúng ta làm, nhưng với sức mạnh tính toán vượt xa khả năng của chúng ta. AI là công nghệ nhận thức, lý luận là tất cả về sự hiểu biết, học hỏi, trí thông minh và thế hệ sáng suốt.

Những gì nhận thức và AI, không làm, là cảm thấy. Jon Christiansen, Tiến sĩ, nhà khoa học dữ liệu và giám đốc tình báo của Sparks Research cho biết, không có cảm xúc trong đó. Điều đó không cho thấy rằng cảm giác và cảm xúc là từ trái nghĩa của nhận thức, bởi vì chúng không phải là. Họ là miễn phí. Đặt hai thứ lại với nhau, và bạn có một cơ chế thực sự mạnh mẽ. Nhưng điều đó bắt đầu với những người ở phía bên kia của máy tính.

Con người lộn xộn, phi tuyến tính và không thể được tối ưu hóa, một điểm đau liên tục cho những nhà tư tưởng phân tích và kỹ thuật nhất. Vì vậy, thay vì yêu cầu họ trả lời câu hỏi về người dùng cuối của họ, chúng ta nên mong đợi rằng họ có thể trả lời câu hỏi về chính họ.

Đi một bước xa hơn các yêu cầu được đề xuất của IBM như một phần của Đạo đức hàng ngày đối với trí tuệ nhân tạo của họ , mỗi người chịu trách nhiệm tạo ra một sản phẩm AI sẽ có thể trả lời các câu hỏi sau:

Họ tin gì về công nghệ họ đang tạo ra?
Tại sao họ tin điều đó?
Họ hy vọng đạt được điều gì?
Làm thế nào họ sẽ mô tả các tác động dự định?
Và có lẽ quan trọng nhất, tại sao họ quan tâm?
Điều này đưa chúng ta vòng tròn đầy đủ, trở lại nhận thức bản thân như là thành phần cơ bản nhất của trí tuệ cảm xúc. Và cho đến khi các nhà công nghệ dự kiến ​​sẽ hiểu và nói rõ chính họ và những thành kiến ​​vốn có của họ, bộ não đằng sau AI không thể chịu trách nhiệm về hậu quả của những sáng tạo của họ.

HIỂN THỊ NGƯỜI CỦA BẠN, KHÔNG PHẢI THUẬT TOÁN CỦA BẠN
Cambria AI's Groth đưa ra điều này: Trong nền kinh tế phát triển theo công nghệ, sức mạnh sẽ thuộc về những người nắm giữ chuyên môn kỹ thuật và vốn tài chính.

Và với sức mạnh lớn đến trách nhiệm xã hội.

Mọi tổ chức tạo ra và triển khai trí tuệ nhân tạo đều mang gánh nặng cho thị trường mà không tiết lộ bí mật thương mại. Và giải pháp thông minh nhất về mặt cảm xúc là cho chúng tôi thấy con người của bạn chứ không phải thuật toán của bạn. Cho chúng tôi thấy họ là ai và có lẽ quan trọng nhất là tại sao họ quan tâm.

Nếu các [tổ chức] đưa các nhà công nghệ và nhà khoa học dữ liệu của họ ra khỏi bóng tối và giới thiệu họ là con người thực sự ra công chúng, nó sẽ chứng minh họ nhìn vào lập trình AI nhiều hơn kết quả. Rằng họ là những người đang phát triển cho người khác, ông đã giải thích, ông Alexandra Przegalinska, trợ lý giáo sư tại Đại học Kozminski và là nghiên cứu viên AI tại Trường Quản lý MIT Sloan. Điều này sẽ giúp loại bỏ tâm lý hộp đen.

Con người vẫn là nhịp đập của trí tuệ nhân tạo. Trong khi có sự ác cảm giữa chúng ta, phần lớn các nhà công nghệ đều có thiện chí.

Giống như công nghệ đe dọa chúng ta, tất cả chúng ta đều có khả năng thay đổi. Để tiến hóa. Để trở nên thông minh hơn về mặt cảm xúc cho bản thân và trí thông minh nhân tạo mà chúng ta đang mở ra.

Và những cam kết thực hiện sẽ báo hiệu cho tất cả chúng ta rằng chúng ta không nên sợ hãi.

Nhận xét