Báo cáo của các tập tin Openai, lắp ráp tiếng nói của nhân viên cũ có liên quan, tuyên bố phòng thí nghiệm AI nổi bật nhất thế giới là phản bội an toàn vì lợi nhuận. Những gì bắt đầu như một nhiệm vụ cao quý để đảm bảo AI sẽ phục vụ tất cả nhân loại hiện đang mọc lên trên rìa trở thành một người khổng lồ khác của công ty, theo đuổi lợi nhuận khổng lồ trong khi để lại sự an toàn và đạo đức trong bụi.
Cốt lõi của tất cả là một kế hoạch để xé toạc quy tắc ban đầu. Khi Openai bắt đầu, nó đã thực hiện một lời hứa quan trọng: nó đặt một giới hạn về số tiền mà các nhà đầu tư có thể kiếm được. Đó là một đảm bảo pháp lý rằng nếu họ thành công trong việc tạo ra AI thay đổi thế giới, thì lợi ích rộng lớn sẽ chảy đến nhân loại, không chỉ là một số ít tỷ phú. Bây giờ, lời hứa đó đang trên bờ vực bị xóa, dường như để thỏa mãn các nhà đầu tư muốn lợi nhuận không giới hạn.
Đối với những người xây dựng Openai, trụ cột này khỏi sự an toàn của AI có cảm giác như một sự phản bội sâu sắc. Nhiệm vụ phi lợi nhuận là một lời hứa sẽ làm điều đúng đắn khi các cổ phần lên cao, ông nói, cựu nhân viên Carroll Wainwright. Bây giờ các cổ phần cao, cấu trúc phi lợi nhuận đang bị bỏ rơi, điều đó có nghĩa là lời hứa cuối cùng đã trống rỗng.
Khủng hoảng thêm niềm tin
Nhiều người trong số những giọng nói lo lắng sâu sắc này chỉ ra một người: CEO Sam Altman. Các mối quan tâm không phải là mới. Các báo cáo cho thấy ngay cả tại các công ty trước đây của anh ta, các đồng nghiệp cao cấp đã cố gắng loại bỏ anh ta cho những gì họ gọi là hành vi lừa đảo và hỗn loạn.
Cảm giác không tin tưởng tương tự đó theo anh đến Openai. Người đồng sáng lập riêng của công ty, Ilya Sutskever, người đã làm việc cùng với Altman trong nhiều năm, và kể từ ra mắt khởi nghiệp của riêng mìnhđã đi đến một kết luận lạnh lùng: Tôi không nghĩ Sam là người nên có ngón tay trên nút cho AGI. Anh cảm thấy Altman không trung thực và tạo ra sự hỗn loạn, một sự kết hợp đáng sợ cho một người có khả năng phụ trách tương lai tập thể của chúng tôi.
Mira Murati, CTO trước đây, cảm thấy khó chịu. Tôi không cảm thấy thoải mái khi Sam dẫn chúng tôi đến AGI, cô nói. Cô mô tả một mô hình độc hại, nơi Altman sẽ nói với mọi người những gì họ muốn nghe và sau đó làm suy yếu họ nếu họ cản đường anh ta. Nó cho thấy sự thao túng rằng cựu thành viên hội đồng quản trị Openai Tasha McCauley nói rằng nên không thể chấp nhận được khi các cổ phần an toàn của AI cao đến thế.
Cuộc khủng hoảng niềm tin này đã có hậu quả trong thế giới thực. Những người trong cuộc nói rằng văn hóa tại Openai đã thay đổi, với công việc quan trọng của sự an toàn của AI đang ở lại để phát hành các sản phẩm sáng bóng. Jan Leike, người đã lãnh đạo nhóm chịu trách nhiệm về sự an toàn lâu dài, cho biết họ đang đi thuyền chống gió, đã đấu tranh để có được các nguồn lực cần thiết để thực hiện nghiên cứu quan trọng của họ.

Một cựu nhân viên khác, William Saunders, thậm chí đã đưa ra một bằng chứng đáng sợ cho Thượng viện Hoa Kỳ, tiết lộ rằng trong thời gian dài, an ninh rất yếu đến nỗi hàng trăm kỹ sư có thể bị đánh cắp AI tiên tiến nhất của công ty, bao gồm GPT-4.
Tuyệt vọng để ưu tiên an toàn AI tại Openai
Nhưng những người rời đi không chỉ bỏ đi. Họ đã đặt ra một lộ trình để kéo Openai trở lại từ bờ vực, một nỗ lực cuối cùng để cứu nhiệm vụ ban đầu.
Họ đang kêu gọi trái tim phi lợi nhuận của công ty được trao quyền lực thực sự một lần nữa, với quyền phủ quyết bằng sắt về các quyết định an toàn. Họ yêu cầu lãnh đạo trung thực, rõ ràng, bao gồm một cuộc điều tra mới và kỹ lưỡng về hành vi của Sam Altman.
Họ muốn sự giám sát thực sự, độc lập, vì vậy Openai không thể đánh dấu bài tập về nhà của chính mình về sự an toàn của AI. Và họ đang cầu xin một nền văn hóa nơi mọi người có thể lên tiếng về mối quan tâm của họ mà không lo sợ cho công việc hoặc tiết kiệm của họ, một nơi có sự bảo vệ thực sự cho những người thổi còi.
Cuối cùng, họ khăng khăng rằng Openai gắn bó với lời hứa tài chính ban đầu của mình: giới hạn lợi nhuận phải ở lại. Mục tiêu phải là lợi ích công cộng, không phải là sự giàu có tư nhân không giới hạn.
Đây không chỉ là về bộ phim nội bộ tại một công ty Thung lũng Silicon. Openai đang xây dựng một công nghệ có thể định hình lại thế giới của chúng ta theo những cách mà chúng ta hầu như không thể tưởng tượng được. Câu hỏi mà các nhân viên cũ của nó đang buộc tất cả chúng ta phải hỏi là một câu hỏi đơn giản nhưng sâu sắc: chúng ta tin tưởng ai để xây dựng tương lai của mình?
Như cựu thành viên hội đồng quản trị Helen Toner đã cảnh báo từ kinh nghiệm của chính mình, những người bảo vệ nội bộ rất mong manh khi tiền ở trên đường dây.
Ngay bây giờ, những người biết Openai tốt nhất đang nói với chúng tôi rằng những lan can an toàn đó đã bị phá vỡ.
Xem thêm: AI nhận nuôi trưởng thành nhưng những rào cản triển khai vẫn còn

Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra AI & Big Data Expo Diễn ra tại Amsterdam, California và London. Sự kiện toàn diện được cùng đặt với các sự kiện hàng đầu khác bao gồm cả Hội nghị tự động hóa thông minhThì BlockxThì Tuần Chuyển đổi sốVà An ninh mạng & Triển lãm đám mây.
Khám phá các sự kiện và hội thảo trên web về công nghệ doanh nghiệp sắp tới được cung cấp bởi TechForge đây.