Bergabunglah dengan buletin harian dan mingguan untuk mendapatkan pembaruan terbaru dan konten eksklusif untuk meliput kecerdasan buatan terkemuka di industri ini. Pelajari lebih lanjut
Kecerdasan buatan mengubah cara perusahaan beroperasi. Sementara banyak dari transformasi ini positif, ia menawarkan beberapa kekhawatiran unik dari keamanan siber. Aplikasi kecerdasan buatan dari generasi berikutnya seperti agensi AI adalah risiko utama bagi posisi keamanan organisasi.
Apa itu pelanggan kecerdasan buatan?
AI Aulctic mengacu pada model kecerdasan buatan yang dapat bekerja secara mandiri, dan sering kali mengarah pada peran penuh dengan sedikit input manusia. Chatbots canggih adalah salah satu contoh yang paling menonjol, tetapi agen kecerdasan buatan juga dapat muncul dalam aplikasi seperti intelijen bisnis, diagnosis medis dan modifikasi asuransi.
Dalam semua kasus penggunaan, teknik ini menggabungkan model kebidanan, pemrosesan NLP (NLP) dan MLS lainnya (ML) untuk melakukan tugas -tugas multipel secara mandiri. Mudah untuk melihat nilai dalam solusi seperti itu. Itu dipahami, Gartner memprediksi ini ketiga Di antara semua reaksi kecerdasan kebidanan, faktor -faktor ini akan digunakan pada tahun 2028.
Risiko Keamanan Unik dari Agen Kecerdasan Buatan
Ketergantungan agensi AI akan meningkat karena perusahaan berusaha untuk menyelesaikan rentang tugas yang lebih besar tanpa tenaga kerja yang lebih besar. Meskipun ini adalah janji, memberikan model Amnesty International banyak kekuatan memiliki efek serius pada keamanan siber.
Agen kecerdasan buatan biasanya memerlukan akses ke data dalam jumlah besar. Akibatnya, mereka adalah tujuan utama bagi penjahat elektronik, di mana penyerang dapat memfokuskan upaya pada satu aplikasi untuk mengekspos sejumlah besar informasi. Ini akan memiliki efek vital yang sama – yang dipimpin Kerugian ceria 12,5 miliar dolar Pada tahun 2021 saja – tetapi mungkin lebih mudah, karena model kecerdasan buatan mungkin lebih mungkin daripada profesional yang berpengalaman.
Agensi AI Independence adalah perhatian lain. Sementara semua algoritma ML menawarkan beberapa risiko, persyaratan penggunaan tradisional memerlukan lisensi manusia untuk melakukan apa pun dengan data mereka. Agen, di sisi lain, dapat berperilaku tanpa izin. Akibatnya, setiap ekspresi atau privasi transversal atau Kesalahan seperti halusinasi kecerdasan buatan Itu mungkin tergelincir tanpa ada yang memperhatikan.
Kurangnya pengawasan ini membuat ancaman kecerdasan buatan saat ini seperti keracunan data lebih berbahaya. Penyerang hanya bisa merusak model dengan mengubah 0,01 % dari kumpulan data pelatihannyaDan lakukan ini mungkin dengan investasi minimum. Ini berbahaya dalam konteks apa pun, tetapi kesimpulan yang salah dari agen beracun akan mencapai lebih jauh daripada konteks di mana manusia diekstraksi terlebih dahulu.
Bagaimana meningkatkan keamanan siber untuk prostesis kecerdasan buatan
Mengingat ancaman ini, strategi keamanan siber membutuhkan adaptasi sebelum perusahaan menerapkan aplikasi AI. Berikut adalah empat langkah penting menuju tujuan ini.
1. Visi yang bagus
Langkah pertama adalah memastikan bahwa tim keamanan dan operasi memiliki visi penuh dalam pekerjaan karya agen kecerdasan buatan. Setiap tugas formulir lengkap, setiap perangkat atau aplikasi harus terhubung ke sana dan semua data yang dapat diakses jelas. Mendeteksi faktor -faktor ini akan memudahkan untuk menemukan kemungkinan kelemahan.
Alat pemetaan jaringan otomatis mungkin diperlukan di sini. hanya 23 % pemimpin TI Misalkan mereka memiliki visi lengkap di lingkungan cloud mereka dan 61 % menggunakan beberapa alat penemuan, yang mengarah pada duplikat catatan. Pengawas harus mengatasi masalah ini terlebih dahulu untuk mendapatkan wawasan yang diperlukan tentang apa yang dapat dicapai oleh agen kecerdasan buatan.
Menggunakan prinsip konsesi yang lebih sedikit
Setelah apa yang dapat berinteraksi agen, perusahaan harus membatasi hak istimewa ini. Prinsip konsesi yang lebih rendah – yang menyatakan bahwa entitas apa pun tidak dapat melihat apa yang Anda butuhkan sepenuhnya dan hanya menggunakannya.
Database atau aplikasi apa pun yang dapat berinteraksi dengan agen kecerdasan buatan adalah risiko yang mungkin. Akibatnya, organisasi dapat mengurangi permukaan serangan yang relevan dan mencegah pergerakan samping dengan mengurangi izin ini sebanyak mungkin. Apa pun seharusnya tidak berkontribusi langsung pada tujuan memimpin nilai kecerdasan buatan di luar perbatasan.
Mengurangi informasi sensitif
Demikian juga, pengawas jaringan dapat mencegah pelanggaran privasi dengan menghapus detail sensitif dari set data yang dapat diakses AI. Banyak pelanggan kecerdasan buatan yang bekerja secara alami termasuk data khusus. lebih dari 50 % dari pengeluaran kecerdasan buatan Ini akan digunakan untuk chatbots, yang dapat mengumpulkan informasi tentang pelanggan. Namun, tidak semua detail ini diperlukan.
Meskipun agen harus belajar dari interaksi pelanggan sebelumnya, ia tidak perlu menyimpan nama, alamat, atau detail pembayaran. Pemrograman sistem untuk menggosok informasi pribadi yang tidak perlu dari data yang dapat diakses dari AI akan mengurangi kerusakan jika terjadi pelanggaran.
Perhatikan perilaku yang mencurigakan
Perusahaan membutuhkan perhatian pada AI, agen pemrograman juga. Terapkan untuk penggunaan tunggal terlebih dahulu dan gunakan tim yang beragam untuk meninjau model bias atau halusinasi selama pelatihan. Ketika tiba saatnya untuk menerbitkan agen, perlahan -lahan mengeluarkannya dan menontonnya untuk perilaku yang mencurigakan.
Dalam waktu yang sebenarnya, respons sangat penting dalam pemantauan ini, karena risiko kecerdasan buatan klien berarti bahwa setiap pelanggaran dapat memiliki konsekuensi yang parah. Untungnya, solusi dan respons deteksi otomatis sangat efektif, dan menyediakan Rata -rata $ 2,22 juta Dalam biaya pelanggaran data. Organisasi dapat secara perlahan memperluas pelanggan kecerdasan buatan setelah pengalaman yang sukses, tetapi mereka harus terus memantau semua aplikasi.
Dengan kemajuan keamanan siber, strategi keamanan siber harus
Kemajuan AI yang cepat membawa janji besar bagi perusahaan -perusahaan modern, tetapi risiko keamanan dunia maya meningkat pada kecepatan yang sama. Pertahanan elektronik lembaga dan kemajuan harus ditingkatkan serta kasus kecerdasan buatan. Kegagalan untuk mengimbangi perubahan ini dapat menyebabkan kerusakan pada manfaat teknologi.
Agenive AI ML akan mengambil cakrawala baru, tetapi hal yang sama berlaku untuk kelemahan yang relevan. Meskipun ini tidak membuat teknologi ini tidak terlalu aman untuk berinvestasi di dalamnya, ia membutuhkan kehati -hatian. Perusahaan harus mengikuti langkah -langkah keamanan dasar ini karena mereka menawarkan aplikasi Amnesty International baru.
Zac Amos adalah editor fitur di Richak.
DatadecisionMakers
Selamat datang di komunitas VentureBeat!
DatadecisionMakers adalah tempat di mana para ahli, termasuk teknisi yang membuat data, berbagi data, dan inovasi yang terkait dengan data.
Jika Anda ingin membaca tentang ide -ide canggih, informasi modern, praktik terbaik, dan masa depan teknologi data dan teknologi data, bergabunglah dengan kami di DatadecisionMakers.
Anda bahkan mungkin berpikir tentang berkontribusi pada artikel Anda sendiri!
Baca lebih lanjut DatadecisionMakers