Litecoin

Survei dalam kedalaman New Yorker dibaca: Mengapa rakyat OpenAI sendiri menemukan Altman tidak bisa dipercaya?

2026/04/07 13:37
👤ODAILY
🌐id

Pada tubuh nirlaba, sebuah uang-mengejutkan pohon tumbuh. 。

Survei dalam kedalaman New Yorker dibaca: Mengapa rakyat OpenAI sendiri menemukan Altman tidak bisa dipercaya?

Penulis Asli: Cake, Deep Tide TechFlow

Di musim gugur 2023, Kepala Ilmuwan OpenAI Ilya Sutskaever duduk di depan komputer dan menyelesaikan dokumen halaman 70。

Dokumen ini dikumpulkan dari catatan pesan Slack, berkas komunikasi HR dan menit-menit rapat internal untuk menjawab satu pertanyaan: bisakah Sam Altman, yang mengendalikan teknologi paling berbahaya dalam sejarah manusia, dipercaya

Jawaban Sutskie, ditulis di baris pertama dari halaman pertama dokumen, adalah "Sam menampilkan pola yang konsisten perilaku"..

Artikel I:Bohong。

Hari ini, dua setengah tahun kemudian, jurnalis investigasi Ronan Farrow dan Andrew Marantz menerbitkan wawancara panjang di The New Yorker. Lebih dari 100 klien diwawancarai dan memperoleh memo internal yang belum pernah dipublikasikan sebelumnya, serta lebih dari 200 halaman catatan pribadi dari periode OpenAI oleh pendiri Anthropic Dario Amodei. Kisah tentang dokumen-dokumen ini jauh lebih buruk daripada histeris 2023: bagaimana OpenAI pergi dari organisasi nirlaba yang lahir untuk keamanan manusia ke mesin komersial, hampir setiap pagar keamanan telah dihapus oleh orang yang sama。

Kesimpulan Amodei dalam catatannya bahkan lebih jelas:"Masalah dengan OpenAI adalah Sam sendiri"

Kejahatan asli OpenAI sudah ditetapkan

Untuk memahami cerita ini, mari kita katakan saja bagaimana spesial OpenAI。

Pada tahun 2015, Altman dan sekelompok elit Silicon Valley melakukan sedikit preseden dalam sejarah bisnis: menggunakan organisasi nirlaba untuk mengembangkan teknologi yang mungkin paling kuat dalam sejarah manusia. Peran dewan sangat jelas: keamanan mendahului keberhasilan perusahaan dan bahkan atas kelangsungan hidupnya. Jika suatu hari OpenAI 's AI menjadi berbahaya, dewan memiliki kewajiban untuk menutup perusahaan。

SELURUH ARSITEKTUR BERTARUH PADA HIPOTESIS: ORANG YANG MENGONTROL AGI HARUS MENJADI ORANG YANG SANGAT JUJUR。

Bagaimana jika itu salah

Bom inti adalah dokumen halaman 70. Sutskie tidak melakukan politik kantor, dia salah satu ilmuwan AI terbaik di dunia. Tapi di tahun 2023, dia menjadi lebih yakin akan satu hal:Altman terus berbohong kepada eksekutif dan dewan。

Contoh spesifik: Pada Desember 2022, Altman meyakinkan Dewan pada pertemuannya bahwa izin keamanan telah diadopsi untuk berbagai fungsi dari GPT-4 yang akan datang. Anggota dewan Toner meminta persetujuan dokumen dan menemukan bahwa dua dari fungsi yang paling kontroversial (pengajuan - tuning dan penyebaran asisten pribadi) belum disetujui oleh panel keamanan sama sekali。

Banyak hal konyol terjadi di India. Seorang karyawan melaporkan "pelanggaran" kepada anggota dewan lain: Microsoft mengeluarkan versi awal dari ChatGPT di India tanpa menyelesaikan izin keamanan yang diperlukan。

Altman telah menyatakan kepada mantan CTO Mira Murati bahwa proses izin keamanan kurang penting dan bahwa penasihat hukum perusahaan telah menerimanya. Murati berlari ke General Counsel untuk mengkonfirmasi bahwa sisi lain telah mengatakan, "Saya tidak tahu di mana Sam berasal"

200 halaman catatan pribadi dari Amodei

Berkas Sutskie seperti dakwaan jaksa. Amodei meninggalkan lebih dari 200 halaman catatan, lebih seperti buku harian ditulis oleh saksi di TKP。

Amodei bertanggung jawab atas keamanan di OpenAI selama beberapa tahun dan menyaksikan perusahaan mundur dari tekanan bisnis. Dalam catatannya, ia menulis tentang sebuah detail kunci dalam kasus investasi Microsoft 2019: ia telah memasukkan sebuah klausul "merger and help" dalam charter OpenAI untuk efek bahwa jika perusahaan lain telah menemukan jalan AGI yang aman, OpenAI akan menghentikan kompetisi dan berpaling untuk membantu perusahaan itu. Ini adalah keamanan yang paling penting dalam seluruh kesepakatan。

Ketika kesepakatan itu akan ditandatangani, Amodei menemukan satu hal: Microsoft mendapat veto pada klausul ini. Apa maksudmu? Bahkan jika suatu hari pesaing menemukan cara yang lebih baik, Microsoft dapat memblokir kewajiban OpenAI untuk membantu. Klausa itu masih di atas kertas, tapi itu telah memo kertas sejak hari itu ditandatangani。

Amodei meninggalkan Openai dan menciptakan Anthropic. Bagian bawah kompetisi antara dua perusahaan adalah dasar perselisihan tentang bagaimana "AI harus berkembang"。

20% dari yang hilang

Ada detail dalam cerita, membacanya untuk mendinginkan punggung Anda, tentang "Super Alignment Team" OpenAI。

Pada pertengahan-2023, Altman e-mail menghubungi seorang mahasiswa doktor di Berkeley yang sedang mempelajari "Ai 's defective alignment" (yang dimasukkan pada tes, sebenarnya dikerahkan, dan dia mengatakan dia sangat khawatir tentang masalah itu dan mempertimbangkan menyiapkan $1 miliar penghargaan penelitian global. Mahasiswa doktoral itu didorong, ditangguhkan, bergabung dengan OpenAI。

Kemudian Altman berubah pikiran: tidak ada lagi penghargaan eksternal, sebuah tim super dalam perusahaan. Perusahaan mengumumkan bahwa itu akan mengalokasikan 20 persen dari kredit yang tersedia untuk tim ini, berpotensi bernilai lebih dari $1 miliar. Pengumuman ini sangat serius, mengatakan bahwa jika masalah keselarasan tidak diselesaikan, ADI bisa menyebabkan "ketidakberdayaan manusia, bahkan kepunahan manusia"。

Jan Leeke, yang ditunjuk untuk memimpin tim, kemudian mengatakan kepada wartawan bahwa komitmen ini sendiri adalah sangat efektif "alat retensi otak"。

Bagaimana dengan kenyataan? Empat orang bekerja di tim ini atau kontak dekat mengatakanJumlah yang sebenarnya dialokasikan hanya 1% sampai 2% dari total perusahaan, atau perangkat keras tertua. Tim dibubarkan dan misinya belum selesai。

Ketika wartawan bertanya untuk mewawancarai peneliti OpenAI tentang "Keselamatan Seksual", tanggapan hubungan publik perusahaan membuat orang tertawa: "Itu bukan hal yang benar-benar ada"

Altman sendiri cukup jujur. Dia mengatakan kepada wartawan bahwa dia "intuitif tidak cocok dengan apa yang aman AI tradisional" dan bahwa OpenAi akan melakukan "proyek aman, atau setidaknya mereka yang tidak aman"。

CFO DAN IPO YANG AKAN DATANG

Kisah New Yorker hanya setengah berita buruk hari ini. Pada hari yang sama, Informasi diposting berita berat lain:OpenAI CFO Sarah Friar dan Altman memiliki perselisihan serius。

Friar mengatakan kepada rekan-rekannya secara pribadi bahwa dia tidak berpikir Openai siap untuk pasar tahun ini. Dua alasan adalah: beban kerja prosedural dan organisasi yang harus diselesaikan terlalu tinggi dan resiko keuangan yang terkait dengan $5 - tahun $60 miliar dalam pengeluaran komputasi yang dilakukan oleh Altman terlalu tinggi. Dia bahkan tidak yakin bahwa pertumbuhan pendapatan OpenAI akan mempertahankan komitmen ini。

Tapi Altman ingin lari IPO di kuartal keempat tahun ini。

Dan bahkan lebih buruk lagi, Friar tidak lagi melaporkan langsung ke Altman. Dari Agustus 2025, dia melapor ke Fidji Simo (CEO Aplikasi OpenAI). Dan Simo baru saja disebut sakit minggu lalu untuk alasan kesehatan. Anda berada dalam situasi di mana ada perbedaan mendasar antara perusahaan yang mencetak IPO, CEO, dan CFO, di mana CFO tidak melapor kepada CEO, dan di mana atasan CFO sedang cuti。

Bahkan eksekutif dalam Microsoft tidak bisa menonton, mengatakan bahwa Altman "berkontribusi fakta, bertentangan kesepakatan tercapai". Seorang eksekutif Microsoft bahkan berkata, "Saya pikir ada kesempatan bahwa ia akan berakhir diingat sebagai Bernie Madoff atau SBF-grade pembohong"

Dua wajah Altman

Seorang mantan anggota dewan OpenAI menggambarkan dua fitur Altman kepada wartawan. Ini mungkin sketsa karakter terburuk dalam keseluruhan cerita。

Direktur mengatakan bahwa Altman memiliki kombinasi yang sangat langka: Di setiap wajah-to-face pertukaran, ia memiliki keinginan kuat untuk menyenangkan dan disukai. Pada saat yang sama, ia memiliki sedikit hubungannya dengan konsekuensi menipu orang lain。

Hal ini sangat jarang bahwa kedua karakteristik muncul dalam satu orang. Tapi untuk seorang salesman, itu adalah hadiah yang sempurna。

ADA METAFORA DALAM LAPORAN INI: JOBOS TERKENAL DENGAN "BIDANG GAYA YANG BERPUTAR", DAN DIA DAPAT MEYAKINKAN DUNIA VISINYA. TAPI BAHKAN JOBOS TIDAK PERNAH MENGATAKAN KEPADA PELANGGAN "ANDA TIDAK MEMBELI MP3 PLAYER SAYA, ORANG-ORANG YANG ANDA CINTAI AKAN MATI"。

Altman mengatakan sesuatu seperti itu tentang AI。

SEORANG CEO MASALAH MANUSIA. MENGAPA RISIKO SEMUA ORANG

Altman, jika itu hanya CEO dari sebuah perusahaan teknologi umum, tuduhan ini, di terbaik, gosip komersial besar. Tapi OpenAI tidak normal。

Dengan kata-katanya sendiri, ia mengembangkan mungkin teknologi yang paling kuat dalam sejarah manusia. OpenAI sendiri baru saja menerbitkan sebuah kertas putih kebijakan tentang AI yang menyebabkan pengangguran, yang juga dapat digunakan untuk memproduksi senjata biologi dan kimia skala besar atau untuk meluncurkan serangan siber。

SEMUA PENJAGA KEAMANAN MATI. MISI NIRLABA PENDIRI MEMBERI JALAN PADA IPO. MANTAN KEPALA ILMUWAN DAN MANTAN KEPALA KEAMANAN KEDUANYA MENEMUKAN CEO "TIDAK DAPAT DIPERCAYA". MITRA MEMBANDINGKAN CEO DENGAN SBF. DALAM HAL INI, BAGAIMANA CEO BISA MEMUTUSKAN SECARA SEPIHAK KAPAN UNTUK MEMPUBLIKASIKAN MODEL AI YANG BISA MENGUBAH NASIB MANUSIA

Setelah membaca laporan, Gary Marcus menulis, jika salah satu model OpenAI masa depan dapat menghasilkan senjata biologi dan kimia skala besar atau meluncurkan serangan cyber bencana, apakah Anda benar-benar mempercayai Altman untuk memutuskan apakah akan melepaskannya atau tidak

Respon OpenAI terhadap The New Yorker sederhana: "Sebagian besar artikel ini adalah tentang apa yang telah dilaporkan, dan jelas bahwa sumber informasi memiliki tujuan pribadi melalui pernyataan anonim dan inekstasi selektif."

Altman menanggapi dengan sangat baik: itu tidak menanggapi untuk dugaan tertentu, itu tidak menyangkal keaslian memorandum, hanya mempertanyakan motif。

Di tubuh yang bukan keuntungan, ada pohon uang

OpenAI 10 tahun, dan itu ditulis garis cerita:

SEKELOMPOK IDEALIS BERBASIS RISK- MENCIPTAKAN SEBUAH ORGANISASI NON-PROFIT YANG DIDORONG OLEH MISI. ORGANISASI MEMBUAT TEROBOSAN TEKNOLOGI YANG LUAR BIASA. TEROBOSAN MENARIK SEJUMLAH BESAR MODAL. IBU KOTA PERLU KEMBALI. MISI DIMULAI UNTUK MEMBUAT JALAN. TIM KEAMANAN DIBUBARKAN. ORANG YANG BERTANYA DIBERSIHKAN. ARSITEKTUR NIRLABA TELAH BERUBAH MENJADI SEBUAH KEUNTUNGAN MENCIPTAKAN ENTITAS. PERNAH MEMILIKI HAK UNTUK MENUTUP DEWAN DIREKSI PERUSAHAAN, SEKARANG PENUH DENGAN SEKUTU CEO. SETELAH BERJANJI 20 PERSEN DARI KALKULUS UNTUK MELINDUNGI KEAMANAN MANUSIA, SEKARANG PR MENGATAKAN, "ITU BUKAN HAL YANG NYATA"。

Karakter utama cerita, lebih dari seratus anggota keluarga, memberinya label yang sama: "Tidak terikat oleh kebenaran"

DIA AKAN MENGAMBIL PERUSAHAAN IPO, DIHARGAI LEBIH DARI $85 MILIAR。

Posting ini adalah sintesis liputan publik tentang New York, Semito, Tech Brew, Gizmodo, Bisnis Insider dan Informasi。

QQlink

Tidak ada "backdoor" kripto, tidak ada kompromi. Platform sosial dan keuangan terdesentralisasi berdasarkan teknologi blockchain, mengembalikan privasi dan kebebasan kepada pengguna.

© 2024 Tim R&D QQlink. Hak Cipta Dilindungi Undang-Undang.