EkonomiTeknologi

Data Sintetis Bukan Solusi Ampuh untuk Privasi, Tetapi Semakin Praktis untuk Mendukung AI Enterprise

Data Sintetis Bukan Solusi Ampuh untuk Privasi, Tetapi Semakin Praktis untuk Mendukung AI Enterprise
Kecil Besar
14px

Oleh Sherlie Karnidta, Country Manager Cloudera Indonesia

Seiring semakin terintegrasinya AI ke dalam operasional sehari-hari, perusahaan-perusahaan memasukkan data yang semakin besar ke dalam model-model AI. Large language models (LLM) sekarang umum digunakan dalam layanan pelanggan, analitik, produktivitas developer, dan manajemen pengetahuan. Agen AI menambah lapisan baru, yaitu sistem yang mampu mengambil informasi, melakukan penalaran berdasarkan informasi tersebut, dan mengambil tindakan di berbagai tools dan alur kerja.
Situasi ini menghadirkan kenyataan yang kurang nyaman bagi konsumen.

Data yang paling berharga untuk meningkatkan kinerja AI sering kali merupakan data yang paling sensitif. Transkrip layanan pelanggan, catatan kasus, riwayat transaksi, serta log operasional seringkali memuat personally identifiable information (PII), atribut yang sangat dilindungi oleh regulasi, atau konteks bisnis yang bersifat rahasia.

Sekalipun ada niat yang kuat untuk melindungi privasi, hal-hal yang sensitif bisa saja bocor ke dalam kumpulan data pelatihan, set evaluasi, atau pustaka prompt untuk AI, terutama ketika tim bergerak cepat dalam membangun dan meningkatkan berbagai kasus penggunaan AI.
Kegagalan organisasi dalam melindungi data sensitif pelanggan kini dapat menimbulkan konsekuensi yang serius.

Undang-Undang Perlindungan Data Pribadi di Indonesia, yang telah sepenuhnya diberlakukan sejak Oktober 2024, menetapkan sanksi administratif dan pidana yang berat untuk pelanggaran data.
Inilah alasan mengapa data sintetis kembali mendapatkan perhatian. Sederhananya, data sintetis adalah data yang dihasilkan secara algoritmik untuk mewakili pola-pola utama dalam dataset nyata tanpa mereplikasi rekaman data yang sebenarnya.

Secara teoritis, pendekatan ini membuka peluang untuk mempercepat pengembangan AI dengan mengurangi paparan terhadap informasi yang sangat sensitif. Pertanyaannya, apakah data sintetis benar-benar menghilangkan risiko, atau sekadar memindahkannya?
Mengapa risiko privasi meningkat di era LLM dan agen AI
Alur kerja analitik tradisional umumnya memiliki batasan yang lebih jelas: data dikurasi, diagregasi, di-masking, dan digunakan untuk tujuan tertentu. Namun, pengembangan berbasis LLM mengaburkan batasan-batasan tersebut. Banyak input yang tidak terstruktur, konten sensitif tersembunyi di dalam teks yang tampak tidak berbahaya, dan proses evaluasi semakin bergantung pada kumpulan data pengujian yang besar dan beragam.

Agen AI memperluas permukaan risiko karena memiliki akses langsung ke berbagai sistem data. Seringkali, data pribadi terdapat di dalam sistem ini tanpa pola yang jelas ketika organisasi tidak memiliki visibilitas atas data mereka.
Ketika perusahaan-perusahaan memperluas inisiatif AI, mereka membutuhkan data dalam volume besar untuk melakukan fine tuning yang terawasi, pengujian, dan iterasi.

Namun, banyak proyek yang menjanjikan justru melambat karena tim tidak dapat membagikan atau menggunakan data tersebut secara aman untuk membuat model yang dapat diandalkan.
Apakah data sintetis merupakan alternatif yang dapat diandalkan oleh perusahaan?
Sayangnya, data sintetis bukanlah ‘obat mujarab’. Proses pembuatan dataset sintetis yang kurang baik, berisiko membocorkan informasi sensitif, terutama jika mempertahankan kombinasi atribut langka atau terlalu menyerupai contoh nyata.

Di sisi lain, data sintetis juga dapat gagal bila terlalu “bersih”, terlalu generik, atau terlalu seragam. Model yang dilatih dengan data semacam itu mungkin tampil baik dalam pengujian terkontrol, tetapi sulit diterapkan di lingkungan nyata.
Pendekatan yang lebih realistis adalah memposisikan data sintetis sebagai tool untuk mengurangi risiko.

Jika dikelola secara disiplin, data sintetis dapat menurunkan risiko kebocoran data pribadi sekaligus memungkinkan pengembangan dan evaluasi model tetap berjalan. Pendekatan ini juga menjawab kendala praktis yang umum dihadapi, yaitu banyak organisasi kekurangan data pelatihan berkualitas tinggi untuk memulai, bahkan sebelum aspek privasi menjadi pertimbangan.
Cara data sintetis modern dihasilkan telah berkembang melampaui dataset tabular sederhana untuk keperluan pengujian. Saat ini, perusahaan-perusahaan dapat menghasilkan data instruksi sintetis, dialog sintetis, tiket insiden sintetis, dan tanya-jawab sintetis, yang mencerminkan struktur alur kerja nyata tanpa bergantung pada catatan data mentah.

Pendekatan ini menjadi sangat relevan untuk memenuhi kebutuhan pengembangan AI sebagai berikut:
Fine-tuning yang terawasi dan adaptasi domain Perusahaan-perusahaan kerap menginginkan model yang beroperasi sesuai domain spesifik, dengan menggunakan terminologi internal, aturan kebijakan, struktur katalog produk, serta logika eskalasi. Fine-tuning dapat membantu mencapai tujuan tersebut, namun contoh pelatihan yang dibutuhkan sering kali bersifat sensitif.

Dataset sintetis dapat menyediakan prompt–response yang lebih aman serta mencerminkan pola niat dan format task yang sebenarnya, sembari mengurangi ketergantungan pada data aktual pelanggan atau karyawan.

Evaluasi model AI dalam skala besar
Hambatan utama dalam program AI enterprise kerap muncul pada tahap evaluasi. Tim perlu menguji model dalam berbagai skenario, mulai dari pertanyaan rutin, edge case, mode kegagalan, hingga topik yang sensitif terkait kepatuhan pada regulasi. Penciptaan task-task sintetis membantu membangun rangkaian evaluasi yang luas dan konsisten dengan lebih cepat dibandingkan metode manual. Jika dilakukan dengan baik, pendekatan ini meningkatkan kepercayaan terhadap perilaku model sebelum diterapkan ke lingkungan produksi, dan mengurangi kebutuhan untuk menangani dataset mentah yang sensitif selama pengujian.
Kurasi data khusus untuk RAG dan agen AI
Alur kerja retrieval-augmented generation (RAG) dan agen sangat bergantung pada kualitas basis pengetahuan dan prompt pengujian. Data sintetis membantu menghasilkan kueri-kueri yang realistis, variasi pertanyaan, dan interaksi multi-turn untuk melakukan stress-test terhadap perilaku retrieval dan penggunaan tools. Pendekatan ini mengurangi frekuensi penggunaan percakapan nyata yang sensitif sebagai input.
Tools seperti Cloudera Synthetic Data Studio mencerminkan pergeseran menuju operasionalisasi penciptaan data sintetis sebagai bagian dari siklus hidup AI. Pendekatan ini mendukung pembuatan dataset sintetis dalam skala besar untuk keperluan fine-tuning, alignment, distillation, serta kurasi data khusus.
Apa yang membuat data sintetis “aman bagi privasi” dalam praktiknya
Agar efektif menurunkan risiko privasi, data sintetis harus diperlakukan sebagai disiplin engineering yang dilengkapi dengan kontrol yang jelas, bukan sekadar solusi darurat di menit terakhir. Agar bisa berhasil, organisasi perlu terlebih dahulu menentukan tujuan penggunaan dataset tersebut, apakah untuk pelatihan, evaluasi, red-teaming, atau pengujian sistem. Target kegunaan (utilitas) akan menentukan cara data dihasilkan. Selain itu, sejumlah pengaman atau guardrails lain juga perlu diterapkan, antara lain:
Organisasi perlu menerapkan prinsip data minimisation dan melakukan generalisasi pada data granular untuk menghilangkan area sensitif dan nilai ekstrem (outlier) yang tidak diperlukan, dan mengurangi scope sebelum proses penciptaan data dimulai.
Perlu dilakukan penilaian apakah data sintetis mempertahankan pola-pola yang dibutuhkan untuk kinerja model, bukan sekadar terlihat realistis.
Melakukan pemeriksaan terhadap risiko memorisasi (memorization) serta keberadaan contoh yang terlalu unik atau mudah direkonstruksi kembali, juga menjadi langkah penting.
Seluruh proses perlu didokumentasikan, mencakup apa yang dihasilkan, metode yang digunakan, serta tujuan pemanfaatannya. Dokumentasi ini penting untuk mendukung tata kelola dan keterlacakan (traceability), terutama di lingkungan yang diawasi ketat oleh regulasi.
Data sintetis bukanlah pengganti universal bagi data nyata, dan tidak menghilangkan perlunya tata kelola. Dalam praktiknya, membuat data sintetis yang berguna sekaligus aman merupakan tantangan operasional. Tim memerlukan lingkungan yang mampu menghasilkan dataset sintetis dalam skala besar, mengaitkannya dengan task AI tertentu (seperti fine-tuning atau evaluasi), serta menerapkan kontrol tata kelola agar output dapat digunakan dengan penuh keyakinan di seluruh organisasi. Secara keseluruhan, nilai terbesar data sintetis terletak pada pengembangan model machine learning tradisional di lingkungan yang ketersediaan datanya terbatas atau tidak seimbang.
Ketika perusahaan memperluas penerapan LLM dan agen AI, data sintetis semakin menjadi jalur yang praktis untuk mengurangi ketergantungan pada data pribadi yang sensitif. Kondisi ini menegaskan pentingnya platform data dan AI terpadu yang memiliki tata kelola yang kuat, sehingga tim mampu mengoperasionalkan penciptaan data sintetis dan validasinya sebagai bagian dari siklus hidup AI secara end-to-end. Dengan begitu, inovasi dapat didorong dengan lebih cepat tanpa meningkatkan risiko terhadap privasi.

Update berita terkini dan berita pilihan kami langsung di ponselmu. Pilih saluran favoritmu akses berita Waspada.id WhatsApp Channel dan Google News Pastikan Kamu sudah install aplikasi WhatsApp dan Google News.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

*isi komentar sepenuhnya adalah tanggung jawab pengguna dan diatur dalam UU ITE