Dalam postingan blog Google Cloud terbarunya, Phil Venables, VP, TI Security & CISO di Google Cloud, menyoroti pentingnya vendor AI untuk membagikan riset kerentanan. Dia menekankan bahwa transparansi ini sangat penting untuk membangun kepercayaan pada teknologi AI, terutama mengingat perkembangannya yang pesat. Google menanggapi riset keamanan siber dengan serius dan telah banyak berinvestasi dalam mengeksplorasi risiko AI dan mengembangkan pertahanan siber yang lebih baik. Khususnya, tim Riset Kerentanan Cloud Google menemukan dan memperbaiki kerentanan yang sebelumnya tidak diketahui di Vertex AI. Venables mendesak pengembang AI untuk menormalkan praktik berbagi riset keamanan AI, dengan mengadvokasi masa depan di mana AI generatif aman secara default. Google Cloud bertujuan untuk memimpin upaya ini dengan mempromosikan transparansi, berbagi wawasan, dan mendorong diskusi terbuka tentang kerentanan AI. Dia berpendapat bahwa menyembunyikan kerentanan hanya akan meningkatkan risiko masalah serupa yang tetap ada di platform lain. Sebaliknya, industri harus berupaya untuk mempermudah pencarian dan perbaikan kerentanan. Venables menyimpulkan dengan menyerukan upaya kolektif untuk meningkatkan standar keamanan AI, bekerja menuju masa depan di mana model AI aman secara default.
Google Cloud Menekankan Pentingnya Berbagi Riset Kerentanan AI
Google Cloud