Kecerdasan Data Generatif

Mandat Pelokalan, AI Akan Menimbulkan Tantangan Data Besar pada tahun 2024

Tanggal:

Perusahaan diperkirakan akan menghadapi tiga tren pada tahun 2024 yang menjadikan keamanan, perlindungan, dan kepatuhan data menjadi lebih penting bagi operasional dan pengurangan risiko.

Semakin banyak pemerintah di seluruh dunia yang membuat undang-undang yang mengatur penanganan data di dalam negeri mereka, dengan lebih dari tiga perempat negara menerapkan lokalisasi data dalam berbagai bentuk. menurut konsultan global McKinsey & Co. Tren kedua adalah terburu-buru dalam mengatur penggunaan data untuk model AI generatif (GenAI), dimana perintah eksekutif AI dari pemerintahan Biden dan Undang-Undang AI dari Uni Eropa kemungkinan akan memberikan dampak terbesar pada tahun mendatang. Pada akhirnya, penegakan peraturan perlindungan data akan terus diterapkan lebih sering, sehingga berdampak pada lebih banyak perusahaan, menurut para ahli.

Bagi perusahaan, tahun 2024 akan menjadi tahun di mana mereka harus lebih menyadari ke mana data mereka berpindah di cloud, kata Troy Leach, kepala strategi Cloud Security Alliance (CSA).

โ€œPerusahaan sering kali tidak menyadari bagaimana departemen mereka menggunakan informasi,โ€ katanya. โ€œSaya rasa masih ada peningkatan kesadaran, namun kita masih dalam tahap awal penerapan undang-undang privasi dan upaya untuk menjaga data tetap lokal. Kami masih mencoba untuk mencari tahu hal tersebut, dan menurut saya belum ada pola universal yang dapat menjadi panduan mengenai hal-hal apa saja yang harus disertakan dalam upaya kami.โ€

Regulator di Eropa, Tiongkok, dan AS memberi tanda seru pada aturan terkait keamanan data dengan sejumlah denda besar pada tahun 2023. Pada bulan Mei, Komisi Perlindungan Data Irlandia mendenda Meta, perusahaan di belakang Facebook, sebesar โ‚ฌ1.2 miliar (US$1.3 miliar) karena melanggar peraturan lokalisasi dengan mentransfer data pribadi tentang pengguna Eropa ke Amerika Serikat. Pada bulan Juli, pihak berwenang Tiongkok mendenda perusahaan ride-sharing Didi Global lebih dari 8 miliar yuan (sekitar $1.2 miliar) karena melanggar peraturan privasi dan keamanan data negara tersebut.

Kompleksitas lanskap peraturan berkembang dengan cepat, kata Raghvendra Singh, kepala praktik keamanan cloud di cabang keamanan siber Tata Consulting Services, TCS Cybersecurity.

โ€œHampir semua badan pemerintah [dan] regulator di seluruh dunia sedang berupaya untuk menentukan kebijakan privasi dan perlindungan data mereka atau melangkah ke tingkat berikutnya jika sudah ditetapkan,โ€ katanya. โ€œDiperkirakan dalam beberapa tahun ke depan, kita akan melihat peraturan yang lebih ketat di seluruh dunia.โ€

Lokalisasi Data Dimulai

Menyusul disahkannya Peraturan Perlindungan Data Umum (GDPR) di Uni Eropa pada tahun 2016, yang menggantikan Petunjuk Perlindungan Data tahun 1995, semakin banyak negara yang berfokus untuk menjaga data tetap terlindungi berdasarkan peraturan lokal. Lokalisasi data seperti ini akan terus berlanjut, dan pada akhir tahun depan, tiga perempat penduduknya akan tinggal di negara yang memiliki perlindungan privasi. menurut firma intelijen bisnis Gartner.

Bagi dunia usaha, peraturan seperti ini tidak hanya menjadi beban namun juga peluang, kata Singh dari TCS Cybersecurity.

โ€œPersyaratan lokalisasi yang bervariasi, kebutuhan untuk menciptakan kembali model operasi, dan standar yang berbeda untuk sistem teknologi adalah beberapa kompleksitas besar yang sulit diatasi oleh organisasi,โ€ katanya. โ€œOleh karena itu, organisasi yang mampu mengatasi tantangan ini akan mendapat manfaat besar dan memperoleh keunggulan kompetitif.โ€

Beradaptasi dengan rezim lokalisasi di setiap belahan dunia akan memungkinkan perusahaan menawarkan personalisasi, mengurangi risiko kebocoran dan pelanggaran data, dan mendapatkan keuntungan dari reputasi keamanan siber, kata Singh.

Kekhawatiran AI Menyebabkan Perubahan Lanskap

Meskipun lokalisasi data terjadi melalui cloud, perubahan besar yang akan mempengaruhi dunia usaha dan cara mereka menangani data di tahun mendatang adalah adopsi layanan AI yang cepat dan upaya negara-negara untuk mengatur teknologi baru tersebut.

Ketika kekhawatiran akan tertinggal dalam lanskap inovatif semakin meningkat, perusahaan mungkin tidak melakukan uji tuntas yang memadai, kata Leach dari CSA. Banyak organisasi, misalnya, mungkin menggunakan model GenAI pribadi untuk melindungi data mereka, namun datanya akan tetap berada di cloud, katanya.

โ€œApa yang tidak mereka sadari adalah bahwa organisasi mereka mungkin akan meminjam layanan cloud di berbagai wilayah di dunia hanya untuk kebutuhan komputasi,โ€ kata Leach. โ€œMereka akan mengalami kesulitan โ€“ setelah data tersebut dilatih dan dimasukkan ke dalam model โ€“ untuk mencoba menemukan dan mampu mengartikulasikan di mana data tersebut berada, di mana data tersebut berada, dan di mana data tersebut berada.โ€

Namun pada dasarnya, adopsi AI yang cepat merupakan sebuah permasalahan karena data adalah sumber kehidupan model AI โ€“ sejumlah besar data akan dimasukkan, digunakan, dan dikeluarkan dari mesin dan layanan โ€“ dan perusahaan-perusahaan di balik produk-produk AI terkemuka. tidak transparan tentang cara mereka melatih model dan menggunakan data.

Firma analis bisnis Forrester Research memperkirakan perubahan besar yang ditimbulkan oleh AI akan mempengaruhi lanskap data. Enam dari 10 karyawan akan menggunakan AI mereka sendiri untuk pekerjaan mereka pada tahun 2024, dengan harapan dapat menjadi lebih produktif. Pada saat yang sama, akan terdapat risiko hukum, privasi, dan keamanan yang signifikan, dengan setidaknya tiga pelanggaran besar yang disebabkan oleh kode yang dihasilkan oleh AI pada tahun 2024, Analis Forrester memprediksi.

Risiko privasi data dan kepatuhan AI menduduki puncak daftar tren bisnis tahun 2024 yang diterbitkan oleh Kiteworks, sebuah perusahaan perangkat lunak kepatuhan terhadap peraturan. Perkiraan jumlah data pribadi yang mengalir ke ChatGPT dan model GenAI lainnya cukup konsisten: Perusahaan keamanan data Cyberhaven menemukan 4% pekerja yang dipantau mengirimkan data sensitif, sementara Kiteworks mengutip penelitian yang menemukan 15% pekerja telah mengirimkan informasi ke ChatGPT, dan seperempat dari mereka โ€“ sekitar 4% secara keseluruhan โ€“ menganggap data tersebut sensitif.

โ€œSebagian besar organisasi mungkin tidak memiliki mekanisme yang tepat untuk melacak [input data ke dalam sistem GenAI] dan mengendalikan transfer tersebut, dan mungkin mereka bahkan tidak menyadarinya,โ€ kata Patrick Spencer, wakil presiden penelitian di Kiteworks . โ€œAnda harus dapat mengontrol dan melacak apa yang dimuat ke dalam sistem AI tersebut untuk mengendalikan risiko Anda.โ€

Peningkatan Regulasi, Khususnya Terkait AI

Sejumlah pelanggaran kecil telah terjadi. Sekitar 40% organisasi mengalami pelanggaran privasi terkait AI, tiga perempatnya tidak bersifat jahat, menurut survei Gartner.

โ€œSebagian besar AI yang digunakan di berbagai organisasi saat ini dibangun dalam solusi yang lebih besar, dengan sedikit pengawasan yang tersedia untuk menilai dampak terhadap privasi,โ€ kata Nader Henein, wakil analis utama di Gartner, seraya menambahkan bahwa penggunaan AI yang terburu-buru dapat memperburuk keadaan. โ€œSetelah regulasi AI menjadi lebih jelas, hampir mustahil untuk menguraikan data beracun yang diserap tanpa adanya program tata kelola AI. Para pemimpin TI akan harus menghancurkan sistem secara besar-besaran, sehingga menimbulkan kerugian besar bagi organisasi dan reputasi mereka.โ€

Masih banyak tanda tanya, seperti tanggung jawab model AI yang beroperasi lintas batas, kata Leach dari CSA.

โ€œDengan lokalisasi data, karena peraturan ini lebih baru, kasus penegakan hukumnya lebih sedikit, namun menurut saya kesadaran akan risikonya masih meningkat,โ€ katanya. โ€œPerusahaan dapat secara tidak sengaja menempatkan diri mereka pada risiko besar jika mereka menggunakan data dari negara lain, dan kemudian memanfaatkan model bahasa besar ini di wilayah lain di dunia.โ€

tempat_img

Intelijen Terbaru

tempat_img

Hubungi kami

Hai, yang di sana! Apa yang bisa saya bantu?