Samsung Electronics Co. Ltd. memperkirakan rekor laba kuartalan berkat meningkatnya permintaan chip memorinya untuk mendukung beban kerja kecerdasan buatan, membuat sahamnya naik sebanyak 5% selama sesi pasar hari ini sebelum turun menjadi kenaikan 2%.
Perusahaan, yang merupakan pemasok chip memori terbesar di dunia, memperkirakan laba operasional kuartal pertama sebesar 57,2 triliun won ($37,9 miliar), melampaui perkiraan analis sebesar 40,6 triliun won. Angka tersebut naik lebih dari delapan kali lipat dari laba 6,69 triliun won yang dicatat pada kuartal tahun lalu. Jumlah ini juga tiga kali lipat dari rekor laba operasional sebelumnya sebesar 20 triliun won, yang dicapai tiga bulan sebelumnya.
Samsung telah menjadi salah satu penerima manfaat terbesar dari booming AI, berkat permintaan chip memorinya yang melebihi pasokan yang tersedia. Chip memorinya tidak hanya digunakan di server AI di pusat data, tetapi juga di komputer pribadi, ponsel pintar, dan banyak perangkat komputasi lainnya.
TrendForce memperkirakan harga chip memori akses acak dinamis akan naik lebih dari 50% pada kuartal saat ini karena kekurangan yang sedang berlangsung. Sementara itu, analis Meritz Securities Kim Sunwoo mengatakan kepada Reuters bahwa harga kontrak sebenarnya terkadang lebih tinggi dari perkiraan pasar. Selain itu, Samsung mendapat keuntungan dari melemahnya nilai won Korea Selatan, yang baru-baru ini jatuh ke level terendah dalam 17 tahun terhadap dolar AS, sehingga meningkatkan pendapatan luar negerinya.
Meskipun Samsung tidak memerinci angka keuntungannya dalam perkiraan pendapatannya, Kim mengatakan divisi chip perusahaan tersebut kemungkinan besar menyumbang sekitar 54 triliun won, atau 95% dari total. Sebaliknya, bisnis ponsel pintarnya diperkirakan hanya menghasilkan keuntungan sebesar 4 triliun won, turun sedikit dari periode yang sama tahun sebelumnya, namun di atas perkiraan analis.
Perusahaan telah membuat kemajuan nyata di segmen chip memori bandwidth tinggi, setelah sebelumnya berjuang untuk menghadirkan chip tercanggihnya ke pasar. Tahun lalu, segmen chip HBM didominasi oleh saingannya SK Hynix Inc., namun Samsung telah mengirimkan chip HBM4 terbarunya kepada pelanggan, membantunya merebut kembali pangsa pasar.
Namun, sebagian besar keuntungan Samsung berasal dari melonjaknya harga chip memori tradisional, yang diperlukan untuk inferensi AI. Chip HBM terutama digunakan untuk beban kerja pelatihan AI. Secara keseluruhan, mereka menyumbang sekitar 5% dari pendapatan chip perusahaan, kata para analis.
Kim mengatakan bisnis ponsel pintar Samsung terdongkrak berkat persediaan komponen berbiaya rendah. Namun, karena persediaan yang menipis, kemungkinan besar perusahaan akan mengalami penurunan margin pada kuartal kedua, karena perusahaan harus mengeluarkan uang untuk membeli pasokan baru dengan harga yang jauh lebih tinggi.
Samsung juga memberikan perkiraan total pendapatannya, dengan memperkirakan pendapatannya akan tumbuh menjadi 133 triliun won, naik 68% dari tahun sebelumnya. Perusahaan akan mempublikasikan hasilnya secara penuh pada 30 April.
Namun, masih ada beberapa hambatan yang dapat mengaburkan prospek Samsung di kuartal mendatang. Meningkatnya biaya energi akibat perang AS-Iran telah memicu kekhawatiran bahwa permintaan chip memori untuk pusat data AI mungkin melemah. Selain itu, konflik di Timur Tengah mungkin menyebabkan gangguan pada rantai pasokan pembuatan chip sehingga memperlambat momentumnya.
Ryu Young-ho dari NH Investment & Securities mengatakan kepada Reuters bahwa Samsung akan mencoba merestrukturisasi kontrak jangka panjangnya untuk mempertahankan pertumbuhan bisnis semikonduktor, namun meskipun demikian, “ada kekhawatiran mengenai puncak kenaikan harga memori.” Tanda-tanda hal ini telah terlihat, dengan harga spot DRAM yang melemah pada minggu lalu karena pengguna akhir kesulitan untuk menerima kenaikan harga tersebut, kata para analis.
Saham Samsung sempat terguncang bulan lalu ketika Google LLC memperkenalkan teknologi baru bernama TurboQuant, yang memungkinkan beban kerja AI dijalankan pada chip dengan memori lebih sedikit. Namun meski begitu, sahamnya dengan cepat rebound dan naik 61% sepanjang tahun ini.
Foto: Samsung Elektronik
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.
Meta Platforms Inc. berencana untuk merilis versi sumber terbuka dari model kecerdasan buatan generasi berikutnya, Axios dilaporkan Hari ini.
Perusahaan memulai debutnya jaringan sarafnya yang paling mumpuni pada bulan April lalu. Llama 4 Maverick, demikian sebutan algoritmanya, adalah model bahasa besar sumber terbuka dengan 400 miliar parameter. Pada bulan Desember, sumber mengatakan Bloomberg bahwa Meta berencana beralih ke pendekatan distribusi sumber tertutup dengan LLM masa depan.
Perusahaan itu dilaporkan mengembangkan dua model perbatasan berpemilik. Ada LLM dengan nama kode Alpukat dan generator file multimedia yang dikenal secara internal sebagai Mango. Kedua algoritma tersebut diharapkan diluncurkan tahun ini. Model sumber terbuka yang dirinci dalam laporan Axios hari ini mungkin berasal dari Avocado dan Mango.
Tidak jelas apakah versi sumber terbuka akan diluncurkan bersamaan dengan edisi berpemilik. Axios melaporkan bahwa algoritme sebelumnya akan diluncurkan “pada akhirnya”. Ini adalah bagian dari upaya Meta untuk mendistribusikan modelnya “secara luas dan seluas mungkin ke seluruh dunia.”
Versi open-source kabarnya tidak akan menyertakan semua fitur yang tersedia di versi close-source. Tidak jelas kemampuan apa yang akan ditinggalkan Meta.
Llama 4 Maverick, LLM sumber terbuka terbaik perusahaan, didasarkan pada arsitektur campuran para ahli. Ini bukan algoritma monolitik melainkan 128 jaringan saraf berbeda yang masing-masing dioptimalkan untuk serangkaian tugas berbeda. Model sumber terbuka Meta yang akan datang mungkin kekurangan beberapa jaringan saraf yang mendukung edisi berpemilik.
Kemungkinan lainnya adalah perusahaan akan memperkecil jumlah parameter versi sumber terbuka atau melewatkan langkah pelatihan tertentu. LLM Frontier menjalani beberapa putaran pelatihan, termasuk apa yang disebut pasca pelatihan yang terjadi setelah kemampuan inti mereka sudah ada. Dia tidak jarang bagi pengembang model sumber terbuka untuk merilis versi algoritme yang diperkecil yang tidak melalui pasca-pelatihan.
Keamanan AI dilaporkan menjadi salah satu alasan model sumber terbuka Meta tidak menyertakan semua fitur edisi berpemilik. Hal ini mengisyaratkan bahwa Avocado akan mahir dalam menghasilkan kode terkait keamanan siber. Claude 4.6 Opus, LLM Anthropic PBC yang paling mumpuni, sejauh ini telah menemukan ratusan kerentanan kritis dalam proyek sumber terbuka.
Anthropic dan OpenAI Group PBC keduanya mempersiapkan untuk merilis LLM andalan baru. Menurut Axios, Meta tidak mengharapkan model mendatangnya menjadi yang terbaik dalam persaingan “secara keseluruhan.” Namun, algoritma induk Facebook dilaporkan memiliki beberapa “bidang kekuatan” yang menarik bagi konsumen.
Salah satu cara Meta untuk memenangkan hati konsumen adalah dengan membuat modelnya lebih hemat perangkat keras dibandingkan pesaingnya. Banyak LLM frontier tidak dapat berjalan di komputer pribadi karena kendala prosesor. Meta juga mungkin akan mengoptimalkan algoritme untuk kasus penggunaan seperti kesehatan pribadi dan bantuan pekerjaan rumah yang tidak diprioritaskan oleh model yang berfokus pada perusahaan.
Foto: Wikipedia Commons
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.
Anthropic PBC mengatakan hari ini tingkat pendapatan tahunannya kini telah melampaui $30 miliar, naik dari hanya $9 miliar pada akhir tahun lalu, setelah mengonfirmasi perluasan kemitraan dengan Google LLC dan Broadcom Inc. untuk mendukung model kecerdasan buatannya.
Perusahaan mengatakan mereka melihat adanya peningkatan permintaan atas layanan Claude pada tahun ini. Kini, lebih dari 1.000 pelanggan bisnis menghabiskan setidaknya $1 juta untuk alat AI-nya setiap tahun, naik dari hanya 500 pada akhir bulan Februari.
Percepatan ini menunjukkan bahwa pertumbuhan Anthropic tidak terhambat seperti yang dikhawatirkan oleh perselisihan yang sedang berlangsung dengan pemerintah AS. Perusahaan ini terjebak dalam perselisihan hukum dengan Gedung Putih setelah para pemimpin militer di Pentagon memutuskan untuk mengklasifikasikannya sebagai “risiko rantai pasokan” menyusul kebuntuan mengenai pagar pengamannya.
Anthropic sebelumnya mengatakan bahwa penunjukan tersebut dapat mengakibatkan hilangnya pendapatan miliaran dolar dari pelanggan perusahaan yang melakukan bisnis dengan militer AS. Pekan lalu, mereka mengatakan kepada hakim San Francisco bahwa keputusan pemerintah tersebut mendorong lebih dari 100 perusahaan menghubungi pemerintah untuk menyatakan keraguan atas kemampuan mereka untuk terus bekerja sama dengan pemerintah.
Namun, Chief Commercial Officer Anthropic Paul Smith pekan lalu mengatakan kepada Bloomberg dalam sebuah wawancara bahwa beberapa pelanggan menghargai bahwa perusahaan “menunjukkan prinsip-prinsipnya,” meskipun pendapatannya terpukul.
Bagaimanapun, Anthropic tampak yakin bahwa bisnisnya akan terus berkembang dan membutuhkan lebih banyak sumber daya komputasi di masa depan. Perluasan kemitraan dengan Google dan Broadcom juga menunjukkan bahwa mereka yakin perselisihan tersebut pada akhirnya akan terselesaikan. Dalam postingan blognya hari ini, Anthropic mengatakan perjanjian tersebut akan memastikan pihaknya memiliki “kapasitas yang diperlukan untuk melayani pertumbuhan luar biasa yang telah kami lihat di basis pelanggan kami.”
Broadcom adalah pengembang utama unit pemrosesan tensor atau TPU Google, yang merupakan teknologi prosesor alternatif untuk unit pemrosesan grafis Nvidia Corp. yang lebih efisien dalam beban kerja inferensi. Broadcom memiliki kesepakatan multi-tahun dengan Google untuk memproduksi TPU atas namanya yang berlaku hingga tahun 2031, menurut pengajuan peraturan yang diterbitkan pada hari Senin.
Kolaborasi mereka dengan Anthropic akan memberi startup AI akses ke daya komputasi sekitar 3,5 gigawatt, mulai tahun 2027. “Konsumsi kapasitas komputasi AI yang diperluas oleh Anthropic bergantung pada kesuksesan komersial Anthropic yang berkelanjutan,” kata Broadcom. “Sehubungan dengan penempatan ini, para pihak sedang berdiskusi dengan mitra operasional dan keuangan tertentu.”
Berita tersebut membuat saham Broadcom naik lebih dari 3,5% pada akhir perdagangan Senin setelah diumumkan. Chief Executive Hock Tan membahas kemitraan dengan Anthropic bulan lalu dalam sesi diskusi pendapatan, dan ia juga mengungkapkan bahwa ia memperkirakan penjualan chip AI akan menghasilkan pendapatan lebih dari $100 miliar pada tahun depan.
Google awalnya mengembangkan TPU untuk mendukung Google Penelusuran, namun segera menyadari bahwa TPU tersebut sangat efektif dalam menjalankan perangkat lunak AI, sehingga memungkinkannya menyediakan alternatif bagi pelanggan selain GPU Nvidia.
Gambar: Antropis
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.
Perusahaan pusat data kecerdasan buatan Australia yang didukung Nvidia Corp., Firmus Technologies Pty. Ltd., hari ini mengatakan pihaknya telah mengumpulkan dana baru sebesar $505 juta dengan penilaian $5,5 miliar menjelang perkiraan penawaran umum perdana di Bursa Efek Australia akhir tahun ini.
Didirikan pada tahun 2019, Firums mengembangkan dan mengoperasikan infrastruktur pusat data yang dirancang untuk mendukung beban kerja AI yang memerlukan lingkungan komputasi skala besar dan kepadatan tinggi. Firmus sedang membangun fasilitas yang dirancang untuk mengakomodasi cluster unit pemrosesan grafis yang saling terhubung melalui jaringan berkecepatan tinggi, di samping sistem penyimpanan dan pendingin yang diperlukan untuk beban kerja berkelanjutan.
Pusat data perusahaan dikonfigurasi agar selaras dengan arsitektur perangkat keras dan perangkat lunak berbasis Nvidia untuk memungkinkan pelanggan menerapkan lingkungan standar untuk pelatihan model dan inferensi. Sistem distribusi daya dan manajemen termalnya dirancang untuk mendukung pengoperasian berkelanjutan di bawah beban komputasi tinggi.
Firums menyediakan akses ke kapasitas komputasi khusus melalui lingkungan infrastruktur terkelola, di mana penerapan, konfigurasi, dan pengoperasian sistem yang berkelanjutan ditangani dalam satu platform.
Pelanggan dapat menskalakan beban kerja di beberapa node, dengan dukungan untuk kasus penggunaan pelatihan dan inferensi. Model operasinya berpusat pada penyediaan infrastruktur terintegrasi yang menggabungkan komputasi, jaringan, dan manajemen fasilitas.
Perusahaan ini saat ini sedang membangun kampus unggulan senilai $1,37 miliar di kota Launceston, Tasmania utara. Pusat data ini akan dirancang ramah lingkungan sejak awal, dengan daur ulang air, baterai, dan listrik dari bendungan pembangkit listrik tenaga air di Tasmania.
Situs Tasmania juga diperkirakan akan menampung 36.000 chip GB300 kelas atas Nvidia Corp.
Putaran pendanaan baru ini dipimpin oleh Coatue Management, dengan dukungan berkelanjutan dari Nvidia, yang telah mempertahankan peran aktifnya sebagai investor dan mitra strategis.
Pendanaan tersebut akan digunakan untuk memperluas kapasitas pusat data, termasuk pengembangan fasilitas baru, penerapan GPU, serta infrastruktur pendukung daya dan pendinginan yang diperlukan untuk beban kerja AI skala besar.
Pendanaan baru ini datang setelah Frimus mengumpulkan sekitar $715 juta pada tahun 2025, termasuk putaran $327 juta pada bulan November.
Menurut Australian Financial Review, penggalangan dana tersebut merupakan penggalangan dana ketiga dan terakhir menjelang IPO Firmus, dengan sumber yang dekat dengan perusahaan tersebut mengatakan bahwa manajemen diperkirakan akan melakukan penawaran perdananya kepada calon investor IPO pada hari Selasa.
IPO, yang diharapkan pada bulan Juni atau Juli, akan membuat Firmus berupaya mengumpulkan modal tambahan sekitar $2 miliar. Bank of America Corp., JPMorgan Chase & Co., Morgans Financial Ltd. dan Morgan Stanley juga dilaporkan akan memperkenalkan IPO kepada calon investor melalui non-deal roadshow minggu ini.
Jika IPO ini dilanjutkan, maka ini akan menjadi salah satu yang terbesar di Australia pada dekade ini dan salah satu yang terbesar sepanjang masa bagi sebuah perusahaan teknologi di Australia. Perusahaan teknologi terkemuka Australia lainnya yang memutuskan untuk go public cenderung memilih bursa non-Australia, menjadikan Firmus sebagai perusahaan teknologi yang agak langka yang berupaya untuk mengapung di Australia.
Foto: tegas
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.
OpenAI Group PBC hari ini merilis kerangka kebijakan dengan saran tentang cara mengatasi risiko yang ditimbulkan oleh kecerdasan buatan.
Dokumen setebal 13 halaman tersebut berjudul “Kebijakan Industri untuk Era Intelijen: Ide untuk Mengutamakan Orang.” Setidaknya ini adalah makalah kedua yang dimiliki OpenAI diterbitkan dalam 2 tahun terakhir.
Rilis dokumen tersebut menyusul laporan bahwa orang dalam OpenAI telah menyatakan keprihatinannya terhadap kepemimpinan Kepala Eksekutif Sam Altman. Menurut New Yorker, “beberapa eksekutif yang terkait” dengan perusahaan telah melontarkan gagasan untuk menggantikan Altman dengan Fidji Simo. Chief Financial Officer Sarah Friar, sebaliknya, dilaporkan tidak yakin dengan kekuatan rencana OpenAI untuk go public.
Kerangka kerja perusahaan yang baru diterbitkan mencakup lebih dari dua lusin saran kebijakan. Beberapa pihak menyerukan perubahan kebijakan makroekonomi secara luas, sementara yang lain membahas topik-topik yang lebih sempit seperti komponen jaringan listrik. Memitigasi keluaran AI yang berbahaya adalah fokus utama lainnya.
Salah satu saran fiskal OpenAI adalah agar para pembuat kebijakan memitigasi dampak AI terhadap ekonomi dengan “meningkatkan ketergantungan pada pendapatan berbasis modal – seperti pajak yang lebih tinggi atas keuntungan modal, pendapatan perusahaan, atau tindakan yang ditargetkan pada keuntungan berkelanjutan yang didorong oleh AI.” Makalah ini selanjutnya menyarankan pajak yang terkait dengan inisiatif otomatisasi. Bagian lain dari makalah ini merekomendasikan agar pemerintah membentuk dana kekayaan publik yang berfokus pada AI.
Makalah ini juga mencakup beberapa saran kebijakan ekonomi yang lebih sempit yang masing-masing berfokus pada jenis pelaku pasar tertentu.
OpenAI berargumentasi bahwa para pekerja harus diberi kebebasan lebih besar dalam menentukan bagaimana perusahaan mereka menerapkan AI. Sementara itu, para wirausahawan akan diberikan akses terhadap infrastruktur backoffice bersama dan bentuk dukungan lainnya jika dokumen tersebut ingin diimplementasikan. Makalah OpenAI juga mencakup perusahaan-perusahaan mapan, yang menurut pengembang ChatGPT harus diberikan “insentif yang mendorong perusahaan untuk mempertahankan, melatih kembali, dan berinvestasi pada pekerja, serupa dengan kredit gaya penelitian dan pengembangan yang ada.”
Salah satu usulan kebijakan berfokus pada perusahaan di sektor energi. OpenAI berpendapat bahwa pemerintah AS harus lebih aktif mendukung pengembangan kapasitas pembangkit listrik. Menurut surat kabar tersebut, para pembuat kebijakan dapat melakukan tugas tersebut dengan memberikan insentif finansial kepada perusahaan utilitas dan memudahkan akses terhadap komponen jaringan listrik seperti konduktor tingkat lanjut.
Lebih dari setengah lusin saran kebijakan lainnya dalam makalah ini berfokus pada keselamatan AI. OpenAI mengatakan bahwa pemerintah AS harus mengembangkan “buku pedoman yang terkoordinasi untuk menampung sistem AI yang berbahaya setelah diluncurkan ke dunia.” Para pengambil kebijakan, tambah surat kabar tersebut, harus menciptakan cara bagi perusahaan untuk melaporkan insiden keselamatan AI.
“Ide-ide ini ambisius, tetapi sengaja dibuat dini dan bersifat eksploratif,” kata OpenAI dalam a postingan blog yang menyertai kertas itu. “Kami menawarkan rekomendasi tersebut bukan sebagai rekomendasi komprehensif atau final, namun sebagai titik awal diskusi.”
Perusahaan berencana untuk mengadakan diskusi mengenai saran-sarannya di pusat Washington, DC yang disebut Lokakarya OpenAI yang akan dibuka bulan depan. Selain itu, OpenAI akan memberikan hibah hingga $100.000 kepada peneliti kebijakan AI bersama dengan kredit API senilai hingga $1 juta.
Foto: Foto Fokus/Flickr
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.
Ada investasi besar-besaran yang sedang dilakukan dalam membangun infrastruktur digital untuk era AI, dan perusahaan-perusahaan sedang mencari penyedia TI yang menawarkan solusi lengkap. Skenario ini cocok untuk vendor perangkat lunak independen seperti Nutanix Inc. yang dapat menawarkan solusi terpaket yang terintegrasi dengan sistem yang ada dan memberikan orkestrasi tingkat lanjut untuk alur kerja AI.
Nutanix telah didukung dalam beberapa bulan terakhir oleh serangkaian kemitraan strategis tingkat tinggi, peningkatan pendapatan, dan minat perusahaan terhadap platform AI full-stack yang skalabel. Hal ini menandai momen bagi vendor perangkat lunak independen dan kemampuan Nutanix untuk membina aliansi baru yang memungkinkannya membedakan diri dari perusahaan-perusahaan besar yang memiliki posisi vertikal.
“Sebagai vendor perangkat lunak yang sepenuhnya independen, kami adalah satu-satunya perusahaan yang tersisa,” kata Tarkan Maner, presiden dan kepala komersial di Nutanix, dalam wawancara baru-baru ini dengan theCUBE, studio streaming langsung SiliconANGLE Media. “Ada banyak perusahaan hebat. Saya suka Red Hat, saya suka VMware… tapi sekarang mereka adalah bagian dari IBM, mereka adalah bagian dari Broadcom. Mereka lebih tervertikalisasi. Kami adalah perusahaan yang lengkap, terintegrasi secara horizontal, dan cerdas secara vertikal yang mendukung setiap lapisan dalam ekosistem, dari Nvidia, AMD dan Intel hingga OEM mana pun, dari Dell hingga Fujitsu hingga Supermicro hingga HPE hingga Cisco dan Lenovo.”
Fitur ini merupakan bagian dari eksplorasi SiliconANGLE Media terhadap perubahan arsitektur yang mendukung AI tingkat produksi yang berkelanjutan. Pastikan untuk membaca liputan luas Nutanix.NEXT 2026 dari SiliconANGLE, termasuk wawancara dengan para eksekutif, pelanggan, dan mitra ekosistem yang berfokus pada bagaimana organisasi membangun dan mengoperasikan infrastruktur AI perusahaan di lingkungan hybrid. (* Pengungkapan di bawah.)
Infrastruktur digital untuk AI
Pada acara Nutanix .NEXT tahun lalu, perusahaan menggambarkan pendekatan AI-nya sebagai strategi tiga kali lipat. Itu adalah platform agen pada Infrastruktur Nutanix, AI pada Nutanix untuk mengoptimalkan penawarannya saat ini, dan AI di dalam Nutanix untuk meningkatkan produknya. Pendekatan yang terus berkembang ini mencerminkan fokus Nutanix dalam menghadirkan infrastruktur AI-ready yang menjaga fleksibilitas beban kerja seiring dengan peningkatan skala pelanggan di berbagai lingkungan.
Pada bulan Maret, Nutanix menggandakan strategi tersebut dengan merilis penawaran Agentic AI, yang terintegrasi dengan pembuat agen Nvidia Corp. untuk memenuhi kebutuhan perusahaan dalam pengembangan infrastruktur pabrik AI dan skala untuk memenuhi permintaan baru. Sesuai dengan alasan agen AI, bekerja secara mandiri dan menyelesaikan tugas-tugas kompleks dengan sedikit pengawasan manusia, perusahaan akan memerlukan infrastruktur dan platform perangkat lunak dengan latensi rendah yang dapat memaksimalkan kinerja dan menjaga pagar keamanan.
Rilis terbaru ini mencakup kemampuan untuk menggabungkan Flow Virtual Networking, Kubernetes, dan solusi AI perusahaan untuk merancang model operasi cloud yang tepat waktu dalam orkestrasi dan tata kelola armada agen AI. Penambahan unit pemrosesan data BlueField membantu mengurangi biaya komputasi dan konsumsi memori, sementara lapisan perangkat lunak asli Kubernetes memberikan biaya token yang dapat diprediksi saat menerapkan armada agen.
“Kami yakin akan ada ribuan agen untuk setiap pelanggan perusahaan,” kata Maner kepada theCUBE. “Ketika perusahaan-perusahaan mulai memasuki babak pertama dalam hal ini… tiba-tiba, mereka tidak tahu di mana mereka akan membangun agen-agen ini, bagaimana mereka akan mengelolanya, siklus hidup agen-agen tersebut, bagaimana kami akan menjaga dan mengamankan mereka. Kami ingin memastikan, baik dalam industri yang teregulasi maupun yang tidak teregulasi, terdapat platform yang membuat siklus hidup agen-agen ini lebih mudah dikelola, berperforma tinggi, berbiaya rendah, dan sangat aman. Di situlah Nutanix berperan.”
Hibrida sebagai fondasinya
Posisi Nutanix dalam solusi orkestrasi AI dirancang untuk membangun posisinya sebagai pemimpin komputasi infrastruktur konvergensi cloud hybrid. Cloud hybrid merupakan elemen inti dalam strategi pasar Nutanix karena perusahaan ini berupaya menjadi titik kendali cloud hybrid untuk operasional pusat data.
“Hybrid cloud adalah fondasinya, sasisnya,” jelas Maner. “Permainan perangkat lunak kami adalah memastikan kami membuat model operasi tersedia dan dapat dijalankan secara ekonomis bagi pelanggan saat mereka berinovasi. Cloud hibrid menjadikan segala sesuatunya efisien, membuat segalanya terukur, dan berperforma tinggi. Beberapa aplikasi bagus di on-prem, beberapa aplikasi bagus di cloud off-prem, dan beberapa aplikasi bagus dalam mode hybrid. Cloud hybrid masih menjadi platform untuk mencapai tujuan dan mendapatkan hasil melalui aplikasi AI di era agenik ini.”
Ada kemungkinan yang masuk akal bahwa kepercayaan Nutanix terhadap hybrid cloud telah menghasilkan dorongan pasar yang menguntungkan dalam beberapa bulan terakhir. Sebuah survei dari OpenText menemukan bahwa 67% perusahaan telah memulangkan sejumlah beban kerja, dan 87% berencana untuk melakukannya dalam 12-24 bulan ke depan. Hal ini akan menguntungkan Nutanix dalam memposisikan platformnya untuk fleksibilitas beban kerja maksimum, dan para analis SiliconANGLE percaya bahwa konferensi tahunan perusahaan tersebut akan menyaksikan perusahaan tersebut mengumumkan langkah-langkah tambahan untuk memperkuat posisi hybrid cloud-nya.
“Saya berharap acara ini mencerminkan poros industri yang lebih luas menuju multicloud hybrid, penyampaian aplikasi berbasis AI, dan rekayasa platform yang mengabstraksi kompleksitas sekaligus mempercepat kecepatan pengembang,” kata Paul Nashawaty, analis utama di CUBE Research. “Perusahaan yang menerapkan trifecta ini – arsitektur yang mengutamakan container, infrastruktur AI hybrid, dan tata kelola multicloud yang aman – akan memimpin dalam hal kinerja dan inovasi dalam dekade mendatang.”
Kebutuhan perusahaan akan cloud berdaulat
Bersamaan dengan cloud hybrid, Nutanix juga membangun keahlian di bidang lain yang penting bagi perusahaan saat ini: cloud berdaulat (sovereign cloud).
Biaya dan kompleksitas pemindahan data dalam jumlah besar untuk melatih model AI mendorong minat baru terhadap cloud berdaulat, sebuah lingkungan komputasi awan khusus yang dirancang untuk memenuhi peraturan kedaulatan digital, residensi data, dan kepatuhan yang ketat. Pada bulan Desember, Nutanix meluncurkan Cloud Platform 7.5 untuk menghadirkan tiga elemen penting dari cloud berdaulat yang terdistribusi: keamanan/kontrol, ketahanan, dan manajemen global. Nutanix percaya bahwa kemampuan ini akan membantu pelanggan menjaga kedaulatan sekaligus mempertahankan kemampuan untuk memodernisasi aplikasi di lingkungan hybrid.
“Sovereign cloud yang terdistribusi menjadi prioritas bagi organisasi yang harus memenuhi kewajiban peraturan tanpa mengganggu konsistensi operasional,” menurut Dave Pearson, wakil presiden di IDC.
Sebagai bagian dari peluncurannya pada bulan Desember, Nutanix juga memperluas dukungan kedaulatan cloud di seluruh penyedia cloud publik, termasuk Nutanix Government Cloud Clusters di Amazon Web Services Inc. untuk lembaga federal AS, Google Cloud dan Microsoft Azure, dengan dukungan tambahan untuk layanan cloud tepercaya di Eropa. Langkah-langkah ini mengikuti tren di mana pelanggan membutuhkan solusi cloud hybrid yang memungkinkan adanya pengukuran tata kelola dan kontrol, menurut Maner.
“Tiba-tiba, hybrid cloud terjadi secara kontekstual di setiap negara dengan cara yang berbeda,” jelasnya. “Saya selalu memberikan saran ini kepada pelanggan — tentukan pilihan dengan vendor seperti Nutanix. Mereka terbuka, fleksibel, dan bertaraf perusahaan. Mereka dapat melayani Anda di wilayah tempat Anda berada berdasarkan kebutuhan yang Anda miliki.”
Kemitraan untuk penawaran yang disesuaikan
Kolaborasi Nutanix dengan perusahaan hyperscaler besar dalam layanan cloud berdaulat mencerminkan elemen kunci dalam strategi pemasarannya. Perusahaan ini secara aktif menjalin kemitraan dengan berbagai pemain teknologi perusahaan besar untuk menawarkan serangkaian layanan yang komprehensif.
Aliansi Nutanix dengan AWS dibangun berdasarkan perjanjian strategis multi-tahun yang melibatkan solusi yang dikembangkan bersama, upaya go-to-market bersama, dan penawaran yang disesuaikan untuk industri yang teregulasi. Nutanix Cloud Clusters atau NC2 di AWS menyediakan penerapan EC2 bare-metal dengan akses ke rangkaian AI AWS yang terus berkembang.
“AWS dan Nutanix kini menjadi mitra yang lebih erat,” kata Maner, dalam wawancara sebelumnya di theCUBE. “Anda tidak harus memiliki semua hypervisor yang ada di masa lalu, cukup dengan container yang terbuat dari logam. Anda memberikan kemampuan penerapan aplikasi yang berpusat pada layanan mikro yang fenomenal di berbagai beban kerja.”
Nutanix juga memiliki kemitraan ekstensif dengan Dell Technologies Inc. untuk memberikan kemampuan penskalaan komputasi dan penyimpanan secara terpisah dalam infrastruktur hyperconverged saat aplikasi AI memerintahkan sumber daya TI. Peluncuran PowerEdge XC Plus dari Dell dan integrasi penyimpanan yang ditentukan perangkat lunak PowerFlex ke dalam tumpukan Nutanix akan membantu AI dan komputasi edge, menurut Rob Strechay dari CUBE Research.
“Secara tradisional, pelanggan yang ingin memperluas infrastruktur mereka harus membeli sumber daya komputasi dan penyimpanan secara bersamaan,” kata Strechay. “Hal ini sering kali menyebabkan inefisiensi, karena sumber daya komputasi atau penyimpanan kurang dimanfaatkan. Mengintegrasikan PowerFlex ke dalam platform Nutanix mengubah dinamika ini dengan memungkinkan organisasi untuk menskalakan komputasi dan penyimpanan secara mandiri.”
Kemitraan dan langkah strategis Nutanix dalam hybrid dan cloud berdaulat menggambarkan bagaimana perusahaan ini bergerak cepat dalam upaya untuk tetap menjadi yang terdepan dalam kurva AI. Ketika ekspektasi pelanggan berubah, Nutanix harus beradaptasi dengan cepat, hal ini merupakan tujuan utama perusahaan ini, menurut Maner.
“Terkadang orang sangat terpikat dengan betapa pintarnya mereka,” kata Maner. “Kami ingin bersikap rendah hati. Sebagai sebuah perusahaan, kami percaya bahwa titik perubahan itu penting. Kami tidak selalu merupakan tim yang paling cerdas, namun kami juga berpikiran terbuka untuk mendengarkan pelanggan.”
Gambar: SiliconANGLE/ObrolanGPT
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.
Xoople SL, penyedia data observasi Bumi asal Spanyol, hari ini mengungkapkan bahwa mereka telah menyelesaikan putaran pendanaan sebesar $130 juta.
Perusahaan investasi yang berbasis di Madrid, Nazca Capital, memimpin kenaikan tersebut. Diikuti oleh MCH Private Equity, CDTI, Buenavista Equity Partners dan Endeavour Catalyst.
Xoople menyediakan akses ke citra satelit dari organisasi seperti Badan Antariksa Eropa. Di masa depan, perusahaan akan menjual data dari konstelasi observasi Bumi miliknya. Sehubungan dengan pencapaian pendanaan hari ini, Xoople mengumumkan kesepakatan dengan L3Harris Technologies Inc. untuk memproduksi sensor optik untuk satelit yang direncanakan.
Satelit observasi optik tidak mengambil foto seperti biasanya. Sebaliknya, mereka mengukur sinar matahari yang dipantulkan dari permukaan bumi. Beberapa sinar matahari yang dipantulkan tidak terlihat oleh manusia dan pengukuran mentahnya sering kali mengandung kesalahan. Akibatnya, citra satelit harus melalui banyak pemrosesan sebelum dapat digunakan untuk tugas praktis.
Menurut TechCrunch, salah satu sumber Xoople mengumpulkan data observasi adalah konstelasi Sentinel-2 milik Badan Antariksa Eropa. Ini terdiri dari sepasang satelit identik yang dapat mengambil foto di 13 pita spektral. Konstelasi ini menawarkan resolusi maksimum hingga 32 kaki.
Beberapa satelit observasi Bumi bertengger di orbit geosynchronous, yang berarti satelit tersebut melayang di atas lokasi tetap. Sistem seperti ini sangat mahir dalam melacak perubahan yang terjadi di area tertentu, namun memberikan penyelesaian yang terbatas. Perusahaan yang membutuhkan kualitas gambar yang lebih baik menggunakan satelit yang ditempatkan di orbit rendah Bumi. Orbitnya secara signifikan lebih dekat ke tanah, yang berarti resolusinya lebih tinggi.
Xoople tidak menentukan orbit mana yang akan digunakan oleh satelit yang direncanakan. Namun, perusahaan tersebut mengatakan kepada TechCrunch bahwa peta jalan pengembangan jangka panjangnya mencakup “model dunia AI yang sebenarnya.” Model dunia adalah jaringan saraf yang dapat menghasilkan lingkungan virtual tiga dimensi seperti simulasi Bumi.
Untuk saat ini, Xoople menawarkan platform yang mengubah gambar mentah dari konstelasi pihak ketiga seperti Sentinel-2 menjadi bentuk yang lebih ramah analisis. Pelanggan juga dapat menggunakan data tersebut untuk mendukung aplikasi kecerdasan buatan.
Sektor konstruksi merupakan salah satu industri dimana platform Xoople dapat diterapkan. Sebuah perusahaan teknik dapat membuat model AI yang menganalisis cuplikan lokasi konstruksi untuk mengetahui penundaan proyek. Selain itu, citra satelit dapat digunakan untuk memperkirakan lamanya penundaan dan biaya yang terkait.
Platform Xoople juga mendapatkan daya tarik di sektor publik. Menurut perusahaan tersebut, Departemen Transportasi Alaska menggunakan data satelitnya untuk memantau risiko lalu lintas terkait gunung es. Platform ini juga dapat digunakan untuk tugas-tugas seperti memantau kesehatan tanaman dan menyesuaikan rute pengiriman paket berdasarkan kondisi cuaca.
Putaran pendanaan Xoople dilaporkan bernilai lebih dari $1 miliar. Perusahaan akan menggunakan modal tersebut untuk membiayai inisiatif rekayasa.
Foto: lingkaran
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.
Modern infrastructure is being reshaped as artificial intelligence drives new levels of AI complexity across the stack.
Kubernetes has moved into the center of AI-driven operations, but the shift is exposing a stubborn reality. Teams are still dealing with skill gaps, fragmented tooling and rising operational pressure. Adding AI is accelerating those challenges instead of resolving them. What looked like a maturing ecosystem is now being stress-tested in real time as AI pushes systems beyond their original design assumptions, according to Rob Strechay, principal analyst at theCUBE Research, during an AnalystANGLE segment recapping theCUBE’s KubeCon + CloudNativeCon EU coverage.
“I think when you start to look at where this is going … I would say the number of open-source activities going on this year is insane,” Strechay said. “Standardization absolutely helps. It helps from a security perspective. It helps from an abilities perspective. It is leveling the playing field, which I think has to happen for AI to really be what it needs to be.”
Strechay spoke with fellow hosts Paul Nashawaty and Rebecca Knight at KubeCon + CloudNativeCon EU, during an exclusive broadcast on theCUBE, SiliconANGLE Media’s livestreaming studio. During the event, they talked with various industry experts about how Kubernetes and open source — driven in large part by the Cloud Native Computing Foundation — are evolving to support AI while teams grapple with growing complexity, governance demands and skills gaps, among other topics. (* Disclosure below.)
Here’s theCUBE’s complete video analysis of the event:
Here are three key insights you may have missed from KubeCon + CloudNativeCon EU:
Insight #1: AI complexity is reshaping how inference and platforms converge.
AI is moving out of isolated experimentation and into core IT operations, where it has to run reliably at scale. That transition is shifting ownership from data science teams to infrastructure teams, forcing organizations to rethink how AI systems are built, managed and supported over time. The moment AI begins delivering business value, it becomes part of the operational baseline — not something that can live on the edge, explained Brian Stevens (pictured), senior vice president and AI chief technology officer of Red Hat Inc., in an interview with theCUBE.
“What we realized is that AI is being developed by data scientists, and as part of that, they’re building their own infrastructure to run it on as well,” Stevens said. “The way we thought about it was, eventually it’s going to be a CIO’s problem if AI gets successful, they’re going to be the ones managing it and scaling it and operating it. What language do CIOs speak these days? They speak KubeCon and Kubernetes and Kubernetes-based platforms.”
Cloud-native adoption is expanding alongside AI complexity, often without being a deliberate choice. Developers building AI systems are naturally pulled toward platforms that handle distributed data, networking and compute, which is making cloud-native architecture feel less optional and more foundational. In many cases, organizations don’t “choose” cloud-native — they arrive there because AI workloads demand it, noted Liam Bollman-Dodd, primary market research consultant at SlashData Ltd.
“The cloud-native technologies are … the tools that you have to use to do AI inference, do ML pipelines,” he said in a discussion with theCUBE. “You just end up incidentally having to use a lot of cloud-native stuff, not only because you’re dumping it all to the cloud most of the time — because you need to compute and the power — but because they’re just designed to allow this to happen. It wasn’t like they were built for this solely. They were built to handle all of the networking and all the data and all the modeling, and the communications were all designed around normal problems.”
Vendors are now trying to reduce the operational burden this creates by shifting intelligence into the platform itself. Instead of expecting teams to manage every layer manually, the focus is turning toward infrastructure that can adapt to AI-driven workloads and respond dynamically to change, according to Peter Smails, general manager of cloud native at SUSE S.A. That shift hints at a broader evolution, where infrastructure becomes less static and more participatory in how systems operate.
“I think we have a very unique approach … we see using AI for intelligent infrastructure,” Smails told theCUBE. “The other piece is it’s being the right infrastructure for running AI workloads. That’s the domain of SUSE AI.”
Here’s theCUBE’s complete video interview with Red Hat’s Brian Stevens and Robert Shaw, director of engineering at Red Hat:
Insight #2: Sovereign AI and platform engineering reshape control.
Sovereign AI is expanding beyond compliance into everyday operations, as organizations look to control how data and models behave across environments. This shift is making visibility, portability and governance core infrastructure concerns rather than secondary requirements, explained Vincent Caldeira, CTO for Asia-Pacific at Red Hat, in an interview with theCUBE. Control is no longer just about where data resides — it’s about how systems behave under different regulatory, operational and economic constraints.
“I think the way we actually define sovereignty is the ability to exert control over your digital destiny,” Caldeira said. “The control over the data has always been a very key topic. I think everyone agrees that any organization needs to have established security and controls around it.”
Platform engineering is emerging as the layer that makes this complexity usable for both developers and AI systems. Internal developer platforms are becoming essential because they provide the structure needed to manage fragmented systems, standardize workflows and reduce cognitive load across teams. Without that structure, the growing number of tools, services and dependencies quickly becomes unmanageable, according to Chris Aniszczyk, CTO of the CNCF.
“I think [Internal Developer Platforms] and Backstage and the rise of agentic systems is only going to increase in importance, because agents need to feed off generally structured information, things that they understand will help them to be more effective,” Aniszczyk told theCUBE. “Every organization’s going to have to have this, in my opinion, to be effective in the new world.”
There is also a growing recognition that technology alone won’t solve the problem. Expanding participation through mentorship and open-source contribution is becoming part of how the industry addresses persistent skill gaps, which continue to slow adoption even as demand accelerates. The health of the ecosystem increasingly depends on how accessible it is to new contributors, pointed out Anastasiia Gubska, lead software engineer at JPMorgan Chase & Co.
“For me, mentorship has played a huge role in the development of my career,” she said. “The first time I met up with the Argo Project Maintainer and a Helm Project Maintainer, I didn’t really have confidence on stage. Potentially, I have an aim now to become a principal engineer in the future. My mentor has been fantastic at pushing me to kind of push my goals and move forward more.”
Here’s the complete video interview with Chris Aniszczyk and Tyson Singer, SVP and head of technology and platforms at Spotify Technology S.A.
Insight #3: Security, scale and platform consolidation are converging.
AI adoption is accelerating faster than the safeguards around it, creating a widening gap between innovation and protection. Foundational practices such as identity, access and data governance are struggling to keep pace with the speed of deployment and the increase in AI complexity, leaving organizations exposed in ways that are both familiar and newly complex. The difference now is the velocity — issues that once unfolded over years are emerging in months, explained Christopher “CRob” Robinson, CTO of the Open Source Security Foundation.
“There’s been an accelerated use over the last year, especially AI, which has been around for decades,” he told theCUBE. “It used to be called machine intelligence and machine learning. It’s kind of evolved into more buzzwordy terms. It’s been around forever, but in the last year, in particular, the growth has accelerated and the different variables and techniques and tools have exploded.”
At the infrastructure layer, Kubernetes is becoming the operational backbone for AI because it can handle unpredictable workloads at scale. AI systems introduce variability in compute demand, data movement and performance requirements, and cloud-native platforms are one of the few environments capable of absorbing that volatility. What began as a container orchestration tool is now acting as a control plane for modern AI operations, according to Jonathan Bryce, executive director of cloud and infrastructure at The Linux Foundation.
“I think it’s something where CNCF projects are really meeting the moment for AI,” he said about increasing AI complexity. “AI is going to drive the next 10, 20 years of technology the way that cloud did the last 10 or 20 years.”
At the data layer, enterprises are moving away from fragmented tools toward more unified platforms that can support AI complexity at scale. This consolidation is being driven by the need to manage cost, performance and operational overhead as systems grow more interconnected and agent-driven. Rather than adding more point solutions, organizations are starting to prioritize cohesion across the stack.
“We’re not looking at a solution for observability and a solution for search and a solution to build their AI apps and a solution to monitor,” Bianca Lewis, executive director of the OpenSearch Software Foundation, said in an interview with theCUBE. “I think now what we really need is we’re building an AI data infrastructure that you can build those use cases on. Super exciting things with agentic AI that we’re doing, platform-wide that we’re getting into and has been adopted by the hyperscaling companies.”
Here’s the complete video interview with CRob Robinson and Greg Kroah-Hartman, Linux kernel maintainer at The Linux Foundation:
For more of theCUBE’s coverage of KubeCon + CloudNativeCon EU, check out these segments:
Bob Killen, senior technical program manager at the CNCF Roberto Carratala, principal AI platform architect within the AI Business Unit at Red Hat Donia Chaiehloudj, software engineer at Isovalent, a Cisco Systems Inc. company Bill Mulligan, Celium and eBPF maintainer at Isovalent Kevin Cochrane, chief marketing officer of Vultr Francesco Giannoccaro, head of high-performance computing at the UK Health Security Agency Johan van Amersfoort, chief evangelist and AI lead at ITQ Consultancy Jeffrey Kusters, CTO of ITQ Consultancy Andrew Burden, community facilitator at Red Hat Ľuboslav Pivarč, principal software engineer, KubeVirt maintainer at Red Hat Jeroen van Gemert, DevOps engineer at Koninklijke KPN Joe Gardiner, assistant VP of cloud and data sales, EMEA and LATAM, at Portworx by Everpure Daniel Messer, senior manager for product management at Red Hat Siamak Sadeghianfar, senior manager for product management at Red Hat Phil Trickovic, SVP of Tintri by DataDirect Networks Michael Beemer, principal product manager at Dynatrace Jonathan Norris, director of software engineering at Dynatrace
To watch more of theCUBE’s coverage of KubeCon + CloudNativeCon EU, here’s our complete event video playlist:
(* Disclosure: TheCUBE is a paid media partner for the KubeCon + CloudNativeCon NA event. Neither Red Hat Inc., the headline sponsor of theCUBE’s event coverage, nor other sponsors have editorial control over content on theCUBE or SiliconANGLE.)
Photo: SiliconANGLE
Support our mission to keep content open and free by engaging with theCUBE community. Join theCUBE’s Alumni Trust Network, where technology leaders connect, share intelligence and create opportunities.
15M+ viewers of theCUBE videos, powering conversations across AI, cloud, cybersecurity and more
11.4k+ theCUBE alumni — Connect with more than 11,400 tech and business leaders shaping the future through a unique trusted-based network.
About SiliconANGLE Media
SiliconANGLE Media is a recognized leader in digital media innovation, uniting breakthrough technology, strategic insights and real-time audience engagement. As the parent company of SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI and theCUBE SuperStudios — with flagship locations in Silicon Valley and the New York Stock Exchange — SiliconANGLE Media operates at the intersection of media, technology and AI.
Founded by tech visionaries John Furrier and Dave Vellante, SiliconANGLE Media has built a dynamic ecosystem of industry-leading digital media brands that reach 15+ million elite tech professionals. Our new proprietary theCUBE AI Video Cloud is breaking ground in audience interaction, leveraging theCUBEai.com neural network to help technology companies make data-driven decisions and stay at the forefront of industry conversations.
Saat ini kita sedang mencapai momen penting dalam kecerdasan buatan. Pengungkapan keuangan terbaru dari garis depan perlombaan senjata AI – OpenAI Group PBC dan Anthropic PBC – tidak hanya memberi kita gambaran sekilas; mereka mengungkap ketegangan inti yang membentuk keseluruhan industri. Mesin terpintar yang pernah dibuat juga merupakan mesin termahal untuk dibuat dan dioperasikan dalam sejarah komputasi.
Model itu rusak. AI bukanlah perangkat lunak murni; ini adalah infrastruktur sebagai layanan dengan banyak fisika era industri. Hal ini terikat pada komputasi, boros energi, dan padat modal. Ketika OpenAI memproyeksikan pengeluaran komputasi sebesar $121 miliar pada tahun 2028, hal ini bukanlah sesuatu yang aneh. Ini merupakan sinyal bahwa kita telah memasuki era “Gravitasi Infrastruktur”.
OpenAI dan Anthropic kini melaporkan profitabilitas dalam dua cara berbeda: tidak termasuk biaya pelatihan, dan termasuk biaya pelatihan.
Itu saja seharusnya menghentikan langkah Anda. Hal ini menunjukkan bahwa biaya pelatihan bukan lagi “biaya penelitian dan pengembangan” – namun merupakan harga pokok penjualan. Hapus semuanya, dan Anda akan mendapatkan sesuatu yang tampak seperti perangkat lunak sebagai layanan. Masukkan kembali ke dalamnya, dan Anda akan melihat salah satu industri paling padat modal yang pernah diciptakan.
Intensitas perhitungan/pelatihan: OpenAI – Tinggi (Konsumen + Perusahaan) | Antropis – Tinggi (Perusahaan + API)
Pada tahun 2026, inferensi diproyeksikan mencakup 65% dari seluruh komputasi AI, dan selama masa pakai model, inferensi dapat mewakili 80% hingga 90% dari total biaya. Kami telah melihat hal ini dengan GPT-4: biaya pelatihan sebesar ~$150 juta membengkak menjadi sekitar $2,3 miliar untuk biaya inferensi dalam waktu dua tahun. Ini adalah pengganda 15x yang tidak biasa dilihat oleh VC yang berpusat pada perangkat lunak.
Kita melihat perbedaan yang jelas dalam cara para raksasa ini mengejar “alat produksi”:
Antropis: Bersandar pada lapisan perusahaan dan API. Sekitar 80% pendapatannya kini berasal dari pelanggan bisnis dan panggilan API (terutama alat yang mendukung seperti GitHub Copilot dan Cursor). Hal ini menghasilkan pendapatan yang dapat diprediksi dan margin yang lebih tinggi.
OpenAI: Mengangkangi kedua dunia. Mereka sedang membangun platform konsumen (ChatGPT memiliki lebih dari 800 juta pengguna aktif mingguan) sambil mempertahankan jejak perusahaan yang besar. Bagi mereka, tingkat gratis bukanlah hadiah; ini adalah infrastruktur pengumpulan data.
Jika Anda memperkecil, ini mulai terlihat familier. Kita telah melihat hal ini pada Amazon Web Services Inc., Microsoft Azure, dan pengembangan telekomunikasi pada tahun 90an. Modal awal yang besar, siklus pembayaran yang panjang, dan konsolidasi pasar yang tak terelakkan.
Perbedaannya? Kecepatan. AI mempersingkat pembangunan infrastruktur selama beberapa dekade menjadi beberapa tahun saja. Inilah sebabnya mengapa perusahaan hiperskalasi “Empat Besar” diperkirakan menghabiskan lebih dari $650 miliar untuk belanja modal pada tahun 2026 saja.
Pertarungan sebenarnya: Membengkokkan kurva biaya
Permainan berakhir dengan salah satu dari dua cara. Jika efisiensi perangkat keras (seperti TPU Google LLC atau Blackwell milik Nvidia) dapat menurunkan biaya intelijen lebih cepat daripada peningkatan permintaan, model ini menjadi tidak dapat dihentikan. Jika tidak, kita sedang melihat kompresi margin yang besar dan era konsolidasi yang brutal.
Intinya
Jangan terganggu oleh demo. Di era baru ini, perusahaan yang menang tidak hanya memiliki model terbaik. Mereka akan memiliki perekonomian terbaik. Fokus pada tumpukan: komputasi, biaya, distribusi, monetisasi. Di sinilah pertanyaan tentang $100 miliar akan terjawab.
Gambar: SiliconANGLE
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.
Ada narasi yang terbentuk dalam infrastruktur kecerdasan buatan — dan sebagian besar orang masih melihat ke arah yang salah. Semua orang fokus pada unit pemrosesan grafis. Lebih banyak komputasi. Cluster yang lebih besar. Chip lebih cepat. Di situlah berita utama berada.
Namun kendala sebenarnya di pabrik AI bukanlah komputasi. Itu gerakan.
Di dalam setiap sistem AI modern, data terus berpindah — antar GPU, antar rak, antar cluster. Dan saat ini, gerakan itu menemui jalan buntu. Bukan karena kekurangan bandwidth di atas kertas, namun karena arsitektur yang menggerakkan data tersebut pada dasarnya rusak.
Di sinilah Resolight.ai Ltd. berperan. Startup siluman ini bertujuan untuk mengatasi hambatan tersembunyi dalam infrastruktur AI, dan berjanji untuk mengubah persamaan fisik dan ekonomi pabrik AI. Pemain saat ini seperti Nvidia Corp., Broadcom Inc., Marvell Technology Inc., Cisco Systems Inc. dan Advanced Micro Devices Inc. semuanya bekerja sama dengan vendor optik yang dikemas bersama seperti Ayer Labs dan Celestial AI – yang baru-baru ini diakuisisi oleh Marvell senilai hingga $3,25 miliar – untuk mengatasi tantangan interkoneksi. Resolight mengatakan prosesor fotoniknya dapat mengungguli pendekatan ini dalam beberapa kali lipat.
Saya duduk bersama salah satu pendiri dan Kepala Eksekutif Ofer Shapiro di studio CUBE di Palo Alto untuk diskusi eksklusif yang bersifat rahasia. Apa yang dia gambarkan bukanlah perbaikan bertahap – ini adalah arsitektur ulang jaringan AI yang dapat mengubah perekonomian pabrik AI generasi berikutnya.
Inti permasalahannya: Cahaya yang berhenti pada listrik
Industri AI telah melakukan perubahan besar: beralih dari tembaga ke optik. Optik yang dikemas bersama, atau CPO, dan optik yang dapat dicolokkan linier, atau LPO, kini menjadi standar untuk memindahkan data dalam jumlah besar ke seluruh kluster AI.
Namun bahkan setelah data berpindah dalam bentuk cahaya, data tersebut diubah kembali menjadi sinyal listrik untuk diproses dan dirutekan. Konversi tersebut adalah hambatannya.
“Anda membangun jalan raya optik berkecepatan tinggi… dan kemudian memasang lampu lalu lintas di tengahnya,” jelas Shapiro. Lampu lalu lintas itu adalah saklar listrik yang membatasi throughput, menambah latensi, dan menghabiskan daya.
Lompatannya: Pemrosesan fotonik
Jawaban Resolight itulah yang disebut Shapiro pemrosesan fotonik: menyimpan data dalam domain optik di seluruh jaringan, menghilangkan kebutuhan konversi optik-ke-listrik-ke-optik.
Daripada memproses bit individual secara elektronik, sistem ini memanipulasi data secara massal, langsung dalam bentuk ringan. Menurut Shapiro, pendekatan ini menghasilkan:
Bandwidth 10× lebih tinggi
~90% pengurangan daya jaringan
Diperlukan 10× lebih sedikit sakelar
Latensi tingkat mikrodetik
Lebih sedikit transceiver dan titik kegagalan
Ini bukan sekadar peralihan yang lebih cepat. Ini adalah penghapusan paradigma peralihan yang tradisional.
Mengapa hal ini penting: Jaringan adalah hambatan baru
Pabrik AI berkembang dengan kecepatan yang belum dapat didukung oleh jaringan. Arsitektur masa kini mengalami tekanan karena:
Peralihan multi-tingkat hanya untuk menghubungkan GPU di seluruh rak
Melonjaknya jumlah koneksi optik
Kendala daya yang mendominasi pilihan desain
Memperbaiki infrastruktur yang mengunci GPU ke dalam beban kerja tertentu
Shapiro mengatakan bahwa setelah Anda memodelkan jutaan GPU, jumlah sakelar dan koneksi yang diperlukan akan melonjak — menciptakan hambatan yang sulit untuk penskalaan.
Dari peningkatan skala, perluasan skala… hingga 'penskalaan di mana saja'
Secara historis, infrastruktur AI telah mengalami trade-off antara:
Peningkatan skala: kinerja tinggi, latensi rendah dalam rak
Peningkatan skala: efisiensi lebih rendah di seluruh rak
Arsitektur Resolight meruntuhkan perbedaan itu. Visi “berskala di mana pun” memungkinkan:
Bandwidth seragam di dalam dan di luar rak
GPU dikelompokkan secara dinamis di seluruh pusat data
Infrastruktur yang menyesuaikan dengan jenis beban kerja — pelatihan, inferensi, atau sesuatu yang baru
Jaringan tidak lagi menentukan cara komputasi digunakan. Perangkat lunak melakukannya. Hal ini merupakan peluang mendasar bagi perekonomian pabrik AI.
Efisiensi tingkat sistem
Mengurangi kompleksitas jaringan berdasarkan urutan besarnya akan memberikan manfaat yang luas:
Lebih sedikit rak yang didedikasikan untuk peralihan → lebih banyak ruang untuk GPU
Menurunkan konsumsi daya total
Penerapan dan pengoperasian yang lebih sederhana
Mengurangi ketergantungan pada rantai pasokan yang terbatas
Desain pusat data pada akhirnya dapat memprioritaskan kepadatan dan fleksibilitas komputasi dibandingkan rekayasa berlebihan karena kendala jaringan.
Mengapa startup mempunyai keuntungan
Petahana dioptimalkan untuk keuntungan tambahan — port yang lebih cepat, sirkuit terintegrasi spesifik aplikasi yang lebih baik, efisiensi yang sedikit lebih baik. Resolight melakukan sesuatu yang berbeda: mematahkan model yang menjadi dasar sistem tersebut dibangun.
Shapiro menekankan, lompatan semacam ini tidak datang dari optimalisasi desain yang sudah ada. Hal ini berasal dari pemikiran ulang bagaimana informasi berpindah ke seluruh pusat data. Itu adalah wilayah startup klasik.
Sinyal pasar awal: Gambaran besarnya
Di depan umum, hanya ada sedikit kebisingan. Secara pribadi, percakapan dengan tim infrastruktur AI terkemuka bergerak cepat mulai dari perkenalan hingga rencana pengujian. Tantangannya sudah dipahami dengan baik – jalur maju yang kredibel baru saja tiba.
Pada konferensi GTC Nvidia, pesannya jelas: AI tidak sabar menunggu. Lebih banyak komputasi akan mendorong lebih banyak kecerdasan, sehingga mendorong lebih banyak pendapatan — namun hanya jika sistem dapat memenuhi kebutuhan komputasi tersebut. Jaringan tidak lagi menjadi fungsi pendukung. Ini adalah transmisi mesin.
Dan saat ini, transmisi tersebut berada di bawah tekanan.
Intinya
Pabrik AI sedang memasuki fase baru, dan kendalanya pun mulai berubah. Komputasi tidak lagi menjadi hambatan. Jaringannya adalah.
Resolight yakin bahwa gelombang berikutnya dari infrastruktur AI tidak akan ditentukan oleh chip yang lebih cepat saja — namun oleh cara yang secara fundamental baru untuk memindahkan dan memproses data.
Jika perusahaan berhasil, ini bukan hanya komponen yang lebih baik. Ini adalah arsitektur baru. Bagi investor dan ahli teknologi yang membangun pabrik AI generasi berikutnya, di sinilah letak pengaruh sebenarnya.
Gambar: Sorot ulang
Dukung misi kami untuk menjaga konten tetap terbuka dan gratis dengan terlibat dalam komunitas CUBE. Bergabunglah dengan Jaringan Kepercayaan Alumni theCUBEtempat para pemimpin teknologi terhubung, berbagi intelijen, dan menciptakan peluang.
15 juta+ pemirsa video CUBEmendukung percakapan seputar AI, cloud, keamanan siber, dan banyak lagi
11.4k+ alumni CUBE — Terhubung dengan lebih dari 11.400 pemimpin teknologi dan bisnis yang membentuk masa depan melalui jaringan unik berbasis tepercaya.
Tentang Media SiliconANGLE
SiliconANGLE Media adalah pemimpin yang diakui dalam inovasi media digital, yang menyatukan teknologi terobosan, wawasan strategis, dan keterlibatan audiens secara real-time. Sebagai perusahaan induk dari SiliconANGLE, theCUBE Network, theCUBE Research, CUBE365, theCUBE AI dan theCUBE SuperStudios — dengan lokasi utama di Silicon Valley dan New York Stock Exchange — SiliconANGLE Media beroperasi di persimpangan antara media, teknologi, dan AI.
Didirikan oleh visioner teknologi John Furrier dan Dave Vellante, SiliconANGLE Media telah membangun ekosistem dinamis merek media digital terkemuka di industri yang menjangkau 15+ juta profesional teknologi elit. TheCUBE AI Video Cloud milik kami yang baru menjadi terobosan dalam interaksi audiens, memanfaatkan jaringan saraf theCUBEai.com untuk membantu perusahaan teknologi membuat keputusan berdasarkan data dan tetap menjadi yang terdepan dalam percakapan industri.