Berita
Guru adalah Insinyur Baru: Di Dalam Kebangkitan AI dan PromptOps yang Diaktifkan
Karena semakin banyak perusahaan yang mulai menggunakan AI generasi baru, penting untuk menghindari kesalahan besar yang dapat memengaruhi efektivitasnya: orientasi yang tepat. Perusahaan menghabiskan waktu dan uang untuk melatih pekerja manusia baru agar berhasil, namun ketika mereka menggunakan asisten model bahasa besar (LLM), banyak yang memperlakukannya sebagai alat yang sederhana dan cukup jelas.
Hal ini bukan hanya membuang-buang sumber daya; Itu berisiko. Penelitian menunjukkan bahwa AI telah berkembang pesat dari pengujian hingga penggunaan nyata pada periode 2024-2025 Hampir sepertiga perusahaan Melaporkan peningkatan tajam dalam penggunaan dan penerimaan dibandingkan tahun sebelumnya.
Sistem probabilistik memerlukan tata kelola, bukan angan-angan
Berbeda dengan perangkat lunak tradisional, kecerdasan umum buatan bersifat probabilistik dan adaptif. Ia belajar dari interaksi, dapat berubah seiring perubahan data atau penggunaan, dan beroperasi di area abu-abu antara otomatisasi dan agensi. Memperlakukannya sebagai perangkat lunak tetap mengabaikan kenyataan: tanpa pemantauan dan pembaruan, model akan memburuk dan menghasilkan keluaran yang salah: sebuah fenomena yang dikenal luas sebagai Penyimpangan model. Gen AI juga tidak memiliki fitur bawaan Kecerdasan organisasi. Model yang dilatih menggunakan data Internet dapat menulis soneta Shakespeare, tetapi model tersebut tidak akan mengetahui jalur eskalasi dan batasan kepatuhan kecuali Anda mengajarkannya. Badan pengatur dan standar telah mulai mendorong pedoman justru karena sistem ini berperilaku dinamis dan dapat melakukan hal tersebut Halusinasi, misinformasi, atau kebocoran data Jika dibiarkan.
Biaya yang realistis jika melewatkan proses pendaftaran
Ketika mahasiswa MBA berhalusinasi, salah menafsirkan nada bicara, membocorkan informasi sensitif, atau membesar-besarkan bias, kerugiannya sangat besar.
-
Kekeliruan penyajian dan tanggung jawab: Pengadilan Kanada Air Canada kemudian mengambil tanggung jawab Chatbotnya memberikan informasi kebijakan yang salah kepada penumpang. Keputusan tersebut memperjelas bahwa perusahaan tetap bertanggung jawab atas pernyataan agen AI mereka.
-
Halusinasi yang memalukan: Pada tahun 2025, sebuah “sindikat” dibentuk.Daftar bacaan musim panasYang dia bawa Chicago Sun-Times Dan Penyelidik Philadelphia Buku rekomendasi yang tidak tersedia; Penulis menggunakan AI tanpa verifikasi yang memadai, sehingga mengakibatkan pencabutan dan pengusiran.
-
Bias yang meluas: Komisi Kesetaraan Kesempatan Kerja (Equal Employment Opportunity Commission/EEOCs) yang pertama Menyelesaikan diskriminasi dengan kecerdasan buatan Hal ini mencakup algoritma perekrutan yang secara otomatis menolak pelamar yang lebih tua, menggarisbawahi bagaimana sistem tanpa pengawasan dapat memperkuat bias dan menciptakan risiko hukum.
-
Kebocoran data: Setelah karyawan menempelkan kode sensitif ke ChatGPT, Samsung untuk sementara dilarang Alat AI generik pada perangkat perusahaan – sebuah kesalahan yang dapat dihindari dengan kebijakan dan pelatihan yang lebih baik.
Pesannya sederhana: AI yang tidak terintegrasi dan penggunaan tanpa pengawasan mengakibatkan paparan hukum, keamanan, dan reputasi.
Perlakukan agen AI sebagai karyawan baru
Organisasi harus dengan sengaja menggunakan agen AI seperti yang mereka lakukan pada manusia — dengan deskripsi pekerjaan, kurikulum pelatihan, putaran umpan balik, dan tinjauan kinerja. Ini adalah upaya lintas fungsi di bidang ilmu data, keamanan, kepatuhan, desain, SDM, dan pengguna akhir yang akan bekerja dengan sistem setiap hari.
-
Definisi peran. Perjelas cakupan, input/output, jalur eskalasi, dan mode kegagalan yang dapat diterima. Misalnya, kopilot hukum dapat merangkum kontrak dan menunjukkan klausul yang berisiko, namun harus menghindari keputusan hukum yang pasti dan harus melakukan eskalasi ke isu-isu ekstrem.
-
Pelatihan kontekstual. Penyempurnaan memiliki tempatnya, tetapi bagi banyak tim, loopback augmented generation (RAG) dan transformator instrumen lebih aman, lebih murah, dan lebih mudah diaudit. RAG memelihara model berdasarkan pengetahuan terbaru Anda yang diperiksa (dokumen, kebijakan, basis pengetahuan), mengurangi halusinasi dan meningkatkan ketertelusuran. Integrasi Emerging Model Context Protocol (MCP) mempermudah menghubungkan co-pilot ke sistem perusahaan dengan cara yang mudah dikelola, menjembatani model dengan alat dan data sambil mempertahankan pemisahan masalah. tenaga penjualan Lapisan kepercayaan Einstein Menunjukkan bagaimana vendor memformalkan kontrol grounding, masking, dan audit yang aman untuk AI di perusahaan.
-
Simulasi pra-produksi Jangan biarkan “pelatihan” pertama AI Anda dilakukan dengan pelanggan nyata. Buat kotak uji, kasus uji stres, logika, dan edge yang sangat akurat – lalu evaluasi dengan penilai manusia. Morgan Stanley membangun sistem pemeringkatan untuk perusahaannya Asisten GPT-4dimana konsultan dan teknisi langsung mengevaluasi jawaban dan menyempurnakan klaim sebelum meluncurkannya dalam skala besar. Hasil: > 98% adopsi Antar tim konsultan setelah ambang batas kualitas terpenuhi. Penjual juga beralih ke simulasi: Salesforce baru-baru ini disorot Tes kembar digital Untuk melatih pelanggan dengan aman melawan skenario realistis.
-
4) Pendampingan lintas fungsi. Perlakukan penggunaan awal sebagai a Lingkaran pembelajaran dua arah: Pakar domain dan pengguna garis depan memberikan umpan balik mengenai gaya, kebenaran, dan kegunaan; Tim keamanan dan kepatuhan menegakkan batasan dan garis merah; Desainer menciptakan antarmuka yang ramah pengguna yang mendorong penggunaan yang tepat.
Putaran umpan balik dan tinjauan kinerja — selamanya
Penyiapan tidak berakhir saat Anda melakukan siaran langsung. Pembelajaran paling penting dimulai setelah Penerbitan.
-
Pemantauan dan observasi: Catat keluaran, lacak KPI (akurasi, kepuasan, tingkat eskalasi) dan pantau kerusakan. Penyedia cloud kini mengirimkan alat pemantauan/evaluasi untuk membantu tim mendeteksi anomali dan regresi dalam produksi, terutama untuk sistem RAG yang pengetahuannya berubah seiring waktu.
-
Saluran umpan balik pengguna. Menyediakan tanda dalam produk dan antrean peninjauan terstruktur sehingga manusia dapat melatih model – lalu menutup loop dengan memasukkan tanda ini ke dalam klaim, sumber RAG, atau rangkaian penyesuaian.
-
Audit rutin. Jadwalkan pemeriksaan penyelarasan, pemeriksaan realitas, dan penilaian keselamatan. Microsoft Aturan main AI yang bertanggung jawab di perusahaanMisalnya, menekankan tata kelola dan peluncuran bertahap dengan visi dan batasan eksekutif yang jelas.
-
Model perencanaan suksesi. Seiring dengan berkembangnya undang-undang, produk, dan model, rencanakan promosi dan pensiun seperti yang Anda rencanakan untuk transisi masyarakat—lakukan pengujian silang dan transfer pengetahuan kelembagaan (klaim, kelompok penilai, dan sumber pengambilan).
Mengapa hal ini mendesak sekarang?
Gen AI bukan lagi sebuah proyek “rak inovasi” – namun telah menjadi bagian integral dari CRM, meja dukungan, saluran analitik, dan alur kerja eksekutif. Bank seperti Morgan Stanley dan Bank Amerika Kami memfokuskan AI pada kasus penggunaan co-pilot internal untuk meningkatkan efisiensi karyawan sekaligus mengurangi risiko bagi pelanggan, sebuah pendekatan yang mengandalkan orientasi terstruktur dan pelingkupan yang cermat. Sementara itu, para pemimpin keamanan mengatakan AGI masih ada dimana-mana Sepertiga negara yang mengadopsi kebijakan ini tidak menerapkan langkah-langkah mitigasi risiko dasarSebuah kesenjangan memanggil Data bayangan dan eksposur AI.
Tenaga kerja yang digerakkan oleh AI juga mengharapkan hal yang lebih baik: transparansi, ketertelusuran, dan kemampuan untuk menentukan alat yang mereka gunakan. Organisasi yang menyediakan hal ini – melalui pelatihan, kemampuan UX yang jelas, dan tim produk yang responsif – akan merasakan adopsi yang lebih cepat dan solusi yang lebih sedikit. Ketika pengguna memercayai co-pilot mereka, mereka… digunakan dia – dia; Jika tidak, mereka akan melewatinya.
Saat fase persiapan semakin matang, nantikanlah Manajer dengan Kecerdasan Buatan Dan Spesialis PromptOps Dalam lebih banyak bagan organisasi, pengorganisasian klaim, pengelolaan sumber daya pengambilan, menjalankan kelompok penilaian, dan mengoordinasikan pembaruan lintas fungsi. Microsoft Memunculkan kopilot internal Disiplin operasional ini mengacu pada: pusat keunggulan, model tata kelola, dan panduan penerapan yang siap untuk para eksekutif. Para praktisi ini adalah “guru” yang menjaga agar AI tetap selaras dengan tujuan bisnis yang bergerak cepat.
Daftar periksa praktis untuk kualifikasi
Jika Anda memperkenalkan (atau menyelamatkan) kopilot ke dalam organisasi, mulailah dari sini:
-
Tulis deskripsi pekerjaan. Rentang, input/output, nada, garis merah, aturan eskalasi.
-
Ground modelnya. Menerapkan RAG (dan/atau adaptor gaya MCP) untuk terhubung ke sumber tepercaya dan dikontrol aksesnya; Sedapat mungkin, pilihlah grounding dinamis daripada fine-tuning lebar.
-
Membangun simulator. Membuat skenario tertulis dan dinilai; Mengukur akurasi, cakupan, nada dan integritas; Memerlukan proses keluar manusia untuk tahap kelulusan.
-
Kapal dengan pegangan. Pencegahan kehilangan data (DLP), penyembunyian data, filter konten, dan jalur audit (lihat Lapisan Kepercayaan Vendor dan Standar AI yang Bertanggung Jawab).
-
Umpan balik instrumen. Penandaan, analitik, dan dasbor dalam produk; Jadwalkan penyortiran mingguan.
-
Tinjau dan pelatihan ulang. Pemeriksaan penyelarasan bulanan, audit realitas triwulanan, dan peningkatan model terencana – dengan proses A/B berdampingan untuk mencegah regresi.
Di masa depan ketika setiap karyawan memiliki rekan tim AI, organisasi yang melakukan orientasi dengan serius akan bergerak lebih cepat, lebih aman, dan memiliki tujuan yang lebih besar. AGI tidak hanya membutuhkan data atau komputasi; Dia membutuhkan arahan, tujuan, dan rencana pertumbuhan. Memperlakukan sistem AI sebagai anggota tim yang dapat diajar, ditingkatkan, dan bertanggung jawab mengubah sensasi menjadi nilai kebiasaan.
Dhyey Mavani mempercepat AI generatif di LinkedIn.