Quản lý trí tuệ nhân tạo và hoà bình thế giới

Thứ năm - 04/01/2024 20:55 | Tác giả bài viết: |   69
Đây không phải là vấn đề quay lưng lại với những tiến bộ được cung cấp bởi trí tuệ nhân tạo, nhưng là không đánh mất khả năng phân định của chúng ta.
Quản lý trí tuệ nhân tạo và hoà bình thế giới

Quản lý trí tuệ nhân tạo và hoà bình thế giới theo sứ điệp của ĐTC

Mối liên hệ giữa con người và công nghệ kỹ thuật số là trọng tâm sứ điệp của Đức Thánh Cha cho Ngày Thế giới Hòa bình lần thứ 57. Đây không phải là vấn đề quay lưng lại với những tiến bộ được cung cấp bởi trí tuệ nhân tạo, nhưng là không đánh mất khả năng phân định của chúng ta.

Chiến tranh và việc sử dụng vũ khí công nghệ

Một năm mới mở ra, nhưng bị đánh dấu bởi những cuộc chiến tranh. Những cuộc xung đột liên tiếp diễn ra dường như làm cho người ta nghĩ rằng xung đột là công cụ duy nhất để điều chỉnh mối quan hệ giữa các dân tộc và quốc gia. Trong khi đó, hoà bình luôn được con người mong muốn lại rời xa con tim của những người cầm quyền, ngay cả trước các cuộc đàm phán ngoại giao hoặc các hoạt động mà các tổ chức thực hiện để vũ khí có thể im tiếng. Tại Ucraina, Palestine và Trung Đông, Myanmar, Ethiopia, Yemen…, nạn nhân của chiến tranh tiếp tục gia tăng, và cùng với các nạn nhân là sự dửng dưng của con người cho rằng chiến tranh là một phần của cuộc sống hằng ngày.

Điều làm cho tình hình trở nên tồi tệ hơn là khi người ta sử dụng những phương tiện không cân xứng, không còn phân biệt giữa mục tiêu quân sự và dân sự. Hành động quân sự ngày càng dựa vào công nghệ mới, các hình thức tình báo phức tạp, nhưng khi đòi hỏi trách nhiệm về hậu quả của việc sử dụng công nghệ mới thì không có ai đứng ra chịu trách nhiệm và cho đó chỉ là “tác động phụ”.

Quản lý trí tuệ nhân tạo

Từ đây, một lần nữa, việc suy tư sứ điệp của Đức Thánh Cha cho Ngày Thế giới Hoà bình lần thứ 57 là một điều cần thiết. Các tiến trình hoà bình chắc chắn cần mọi hình thức đóng góp, hỗ trợ, suy tư, nhưng Đức Thánh Cha nói rằng những điều này phải xuất phát từ trái tim con người và do đó không thể giới hạn ở công nghệ, dù tinh vi thế nào cũng có giới hạn của nó trước những lợi ích của những người chỉ muốn tăng không gian quyền lực, và loại trừ người khác.

Nhận thức được khía cạnh tích cực của những gì nghiên cứu và công nghệ tạo ra mang lại động lực và sức sống mới cho khoa học, lời mời gọi của sứ điệp là quản lý quá trình này. Giống như bất kỳ tình huống nào xảy đến trong cuộc sống con người, các quốc gia và cộng đồng quốc tế, thì trí tuệ nhân tạo không phải là kết quả của một thiết kế không biết trước. Vì thế, như mọi thực tế khác, trí tuệ nhân tạo phải được quản lý thông qua các công cụ có thể được tạo ra trong các quốc gia và các nhóm. Đó là nỗ lực cần thiết trước một hiện tượng hiện vẫn chưa bùng nổ hoàn toàn và trước hết vẫn chưa thấy rõ tiềm năng của nó, và ít nhất là trong các trường hợp, trong tất cả các tác động có thể thực hiện và hỗ trợ.

Trong sứ điệp, Đức Thánh Cha đưa ra ý tưởng về một quy định quốc tế liên quan đến các hành vi quản lý cụ thể trí tuệ nhân tạo. Đó là một cách để theo đuổi mục tiêu quản lý, mặc dù biết rằng có thể gặp những khó khăn. Thực vậy, mọi điều mang tính nhân bản phải được đọc, đánh giá trong hành động hàng ngày của gia đình nhân loại, như giáo huấn của Giáo hội. Tuy nhiên, điều này không chỉ đòi hỏi phải đánh giá các tác động của những điều đó nhưng còn phải quản lý việc sử dụng, nghĩa là đặt ra các mục tiêu và trên hết là làm cho những tình huống mới thành công cụ khả thi cho các hành động liên đới. Một hành động không tạo thêm sự chia rẽ.

Con người có thể chọn không lệ thuộc trí tuệ nhân tạo

Trong sứ điệp, Đức Thánh Cha còn nhấn mạnh rằng các công nghệ mới phải luôn hướng tới “việc tìm kiếm hòa bình và công ích, và phải phục vụ sự phát triển toàn diện cho các cá nhân và cộng đồng”. Suy tư của Đức Thánh Cha về tác động của trí tuệ nhân tạo đối với hòa bình thế giới là một cảnh báo chống lại việc lạm dụng trí tuệ nhân tạo. Ngài kêu gọi cộng đồng quốc tế thông qua một hiệp ước ràng buộc để điều chỉnh sự phát triển và sử dụng các hình thức trí tuệ nhân tạo khác nhau, và đặt ra những câu hỏi đạo đức liên quan chặt chẽ đến những công nghệ mới này đang cách mạng hóa nhân loại trong mọi lĩnh vực cuộc sống, có khả năng dẫn đến những điều tồi tệ nhất cũng như tốt nhất. Bởi vì các công nghệ này không trung lập, nhưng được điều khiển bởi các nhà thiết kế thuật toán, chúng có thể thao túng tâm trí con người và do đó gây ra xung đột.

Để hiểu rõ hơn về mối quan hệ giữa con người và máy móc, Vatican News đã có một cuộc trò chuyện với ông Mathieu Guillermin, một giảng viên tại Đại học Công giáo Lyon, chuyên gia về trí tuệ nhân tạo. Công việc của ông tập trung vào các vấn đề triết học và đạo đức được nêu ra bởi các công nghệ kỹ thuật số.

Trong những năm gần đây, trí tuệ nhân tạo đã mở ra những chân trời mới và đặt ra những câu hỏi mới về đạo đức, triết học và thậm chí cả nhân chủng học. Thưa giáo sư, liệu con người sẽ phục tùng máy móc không?

Chúng ta thường trình bày mọi thứ dưới hình thức “máy móc sẽ làm điều gì đó với chúng ta”, nhưng về cơ bản, máy móc vẫn là máy tính và điều đó sẽ không thay đổi. Đó là sự vận hành của các thiết bị mở hoặc đóng các kênh tùy thuộc chức năng được lập trình và chúng ta gắn ý nghĩa vào đó. Nhưng thực tế, máy móc không muốn điều gì cả. Do đó, không có vấn đề đối lập giữa máy móc và con người. Đó là vấn đề con người làm việc với máy móc và nó tác động đến những người khác, tốt hơn hoặc tồi tệ hơn. Không có cái máy nào làm điều gì đó vì nó muốn. Có thể có những máy móc mà chúng ta không kiểm soát được và có thể gây ra “ảo giác”, nghĩa là kết quả không mong muốn, hoặc có loại máy móc chúng ta kiểm soát rất tốt.

Vì vậy, cách thuật toán được lập trình có thể hướng dẫn các lựa chọn của chúng ta phải không?

Đúng, chắc chắn rồi. Ở đây có một sự đánh cuộc. Đó là một trong những điều cơ bản mà người ta có thể không thấy ngay lập tức trong mối liên hệ giữa chiến tranh và hòa bình, nhưng nó thực sự đi rất xa. Trên thực tế, người ta tạo ra những hình ảnh nhỏ, dựa trên hành vi của người đó. Nếu một người hành xử theo một cách nhất định, chúng ta có thể biết người này ở trạng thái nào và chúng ta có thể, với xác suất, xác định hành vi kế tiếp của người này có thể là gì. Loại tính toán này mang lại sức mạnh to lớn, có thể là sức mạnh tốt. Tôi rất vui khi ai đó có thể cung cấp thông tin mà tôi quan tâm, nhưng họ có thể rất nhanh chóng chuyển sang cung cấp thông tin thu hút sự chú ý của tôi. Có thể đi xa đến mức thao túng tinh thần. Người ta gọi đây là công nghệ thuyết phục. Nó không phải là mới với trí tuệ nhân tạo, nhưng trí tuệ nhân tạo sẽ củng cố những gì người ta có thể làm trong lĩnh vực này.

Và dư luận có khả năng phân định đúng đắn không?

Chúng ta thực sự đi đến chủ đề trí tuệ nhân tạo và hòa bình. Việc khai thác nhận thức của chính chúng ta, cách chúng ta suy nghĩ, cách chúng ta phản ứng, có thể được sử dụng để phổ biến thông tin sai lệch tốt hơn hoặc khuấy động xung đột. Đây thực sự là một cách sử dụng quân sự hoá. Nếu chúng ta khai thác vấn đề bong bóng nhận thức, điều đó có nghĩa là chúng ta sẽ chỉ cung cấp cho mọi người những gì họ quan tâm và vì vậy sau một thời gian, sẽ hình thành những nhóm người chỉ có những thông tin nhất định, những nhóm khác có những thông tin khác, cuối cùng sẽ phá vỡ trí tuệ tập thể và nền tảng chung mà chúng ta có thể phải nói chuyện với nhau về hòa bình hoặc căng thẳng. Đó là một cách sử dụng thuật toán không lành mạnh và chúng ta hoàn toàn ở trong chủ đề trí tuệ nhân tạo và hòa bình. Mặt khác, chúng ta có thể sử dụng các thuật toán này để nói “được rồi, tôi có hồ sơ của bạn, tôi biết, tôi phát hiện đại khái về điểm chúng ta sẽ đồng ý và điểm chúng ta sẽ không đồng ý, và vì vậy tôi dựa vào đó để có một cuộc thảo luận thông minh hơn với bạn”. Vì vậy, ở đó chúng ta sẽ đạt được sự gắn kết và trí tuệ tập thể. Vì vậy, có thể sử dụng công nghệ này cách lành mạnh.

Và dựa trên điều này, hệ thống giáo dục có thể tham gia vào những hướng suy tư nào?

Suy tư đầu tiên để phát triển sẽ là bắt đầu từ thế giới chúng ta đang sống và chúng ta là ai, để đặt câu hỏi đúng: Chúng ta có muốn có khả năng thực hiện hành động này hay hành động kia không? Dòng suy tư này có thể xác định cả những gì chúng ta được hình thành và những gì chúng ta học để làm, đồng thời, nơi chúng ta tích hợp các thuật toán, hay không. Để sử dụng đúng, chúng ta phải hiểu tại sao chúng ta đang làm những điều này. Một khi chúng ta có khuôn khổ đó, chúng ta sẽ phải quay trở lại, vì bây giờ chúng ta có thể tự động hóa rất nhiều thứ, cung cấp cho mọi người, sinh viên và người khác, khả năng tự định hướng theo kiểu lựa chọn này. Thực tế, tất cả những điều này cung cấp một nền tảng, để có thể trở thành một người đích thực và một người thông minh.

Đức Thánh Cha Phanxicô cũng nói trong sứ điệp của ngài rằng con người có thể mất kiểm soát khi tin tưởng hoàn toàn vào công nghệ.

Sự mất kiểm soát đã có rồi. Nó đã có trước cả máy, bởi vì chúng ta có sự kiêu ngạo của thần Promethean. Chúng ta có quyền và chúng ta trở thành nô lệ cho quyền của chúng ta, chúng ta đặt mọi thứ vào đúng vị trí để tạo ra các luồng không khí và chúng ta lao vào đó. Đây là lúc chúng ta mất kiểm soát bản thân. Nhưng cũng giống như cách mà các thuật toán có thể khiến chúng ta phản ứng theo một cách nhất định, không trải qua sự suy tư, phán đoán, phân định tối thiểu, chúng ta cũng mất kiểm soát và chúng ta thiết lập các máy lấy đi quyền tự chủ của chúng ta. Tuy nhiên, quyền tự chủ mà chúng ta không được để bị tước đi là khả năng lựa chọn, và trên hết là đưa ra những lựa chọn có ý thức. Ở đó chúng ta đang bảo vệ quyền tự chủ của chúng ta.

Vatican News

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

Những tin mới hơn

Những tin cũ hơn

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây