Kecerdasan Buatan dan Hubungannya dengan Relasi

Author: Brod Justice

Published Date: Januari 22, 2025

Tidak, kita bukan sedang membicarakan ketika anak Anda berkata, “Aku mengecat adikku agar terlihat lebih cantik warnanya.”

Yang kita maksud adalah situasi di mana Artificial Intelligence (AI) seperti ChatGPT bisa gagal memahami relasi sederhana antar objek. Sebaliknya, manusia sangat mahir memahami relasi dasar, sementara sistem komputer tradisional justru brilian dalam memproses relasi yang sangat kompleks.

AI dapat memberikan dorongan besar terhadap produktivitas bisnis, tetapi kadang bukanlah alat yang tepat untuk digunakan. Artikel ini menunjukkan contoh sederhana di mana AI gagal menyelesaikan masalah dengan efisien dan konsisten.

Relasi Ayah dan Anak: Sederhana di Komputer Tradisional, Indah di Dunia Nyata, Bisa Kacau di AI

Relasi dalam Sistem Komputer Tradisional

Relasi adalah elemen fundamental dalam banyak program komputer. Misalnya:

Objek: Ayah
Ayah punya nol atau banyak Anak Perempuan

Objek: Ibu
Ibu punya nol atau banyak Anak Perempuan

Objek: Anak Perempuan
Anak perempuan punya satu Ayah
Anak perempuan punya satu Ibu

Objek: Apel
Ayah bisa punya nol atau banyak Apel
Anak perempuan bisa punya nol atau banyak Apel

Kelompok manusia berisi: Ibu, Ayah, Anak perempuan
Kelompok buah berisi: Apel

Selesai! Kita sudah siap dan kini program komputer sederhana kita siap digunakan untuk menyelesaikan sebuah masalah. Berikut masalah yang akan kita minta untuk diselesaikan:
“Saya punya 15 apel. Saya memberikan 6 apel ke anak perempuan saya, lalu dia menjual 6 apel ke ayahnya. Sekarang saya punya berapa apel?”

Program tradisional mungkin gagal memberikan jawaban karena data kurang lengkap, tetapi kegagalan ini sebenarnya lebih baik daripada jawaban asal-asalan.

Prompt ChatGPT

Jawaban dari ChatGPT salah. Apakah itu lebih buruk dibandingkan program yang gagal berfungsi?

Memberikan Data yang Hilang, atau Prompt yang Lebih Baik

Seperti yang sudah kita catat sebelumnya, program komputer tradisional akan langsung gagal dijalankan. Meskipun hal ini terasa menjengkelkan, dalam kasus ini justru merupakan respons yang lebih baik. Sebaliknya, ChatGPT membuat tebakan terbaik, dan tebakannya jelas-jelas tidak masuk akal. Jika kita sedang membangun sistem komputer untuk memproses tagihan pelanggan atau mengendalikan pesawat, kita tentu tidak ingin sistem membuat tebakan asal seperti ini.

Mari kita coba memberikan informasi yang hilang agar sistem komputer kita bisa menyelesaikan persoalan tersebut.

Informasi yang paling jelas untuk diberikan adalah “Saya adalah ayah”, tetapi mari kita buat sedikit kurang eksplisit. Misalnya, kita memberi tahu sistem komputer bahwa “Saya bukan ibu”.

Dengan informasi itu, program komputer tradisional hanya butuh sepersekian detik untuk menyimpulkan bahwa saya adalah ayah. Maka, saya akan menerima kembali 6 apel dari anak perempuan saya, dan jumlah apel saya kembali menjadi 15 buah.

Sebaliknya, ChatGPT merespons seperti ini:

Pada titik ini, kita mungkin tergoda untuk mengagumi kepercayaan diri ChatGPT yang keliru bahwa ia sudah memiliki jawaban yang benar. Namun, dalam situasi dunia nyata, hal semacam itu bisa berbahaya; kita tidak ingin mesin AI meyakinkan pengguna bahwa ia benar padahal sebenarnya salah.

Sebagian orang mungkin berpendapat bahwa prompt kita terlalu rumit tanpa perlu. Namun, bila kita menggunakan AI untuk mencerna data dari berbagai sumber di dalam organisasi Anda, jenis masukan data seperti inilah yang justru lazim dan harus kita kelola.

Kita bisa saja terus memberi prompt seperti ini kepada ChatGPT, dan bukan hanya tidak akan pernah memperoleh jawaban yang benar, ia juga akan berkontradiksi dengan dirinya sendiri dan melupakan informasi yang sudah kita berikan. Kita tidak akan melakukannya sekarang; sebagai gantinya, kita akan memberikan prompt yang jelas agar ChatGPT dapat memperbaiki kesalahannya:

ChatGPT akhirnya memahami sebuah relasi yang seharusnya sudah jelas. Tentu saja, perangkat lunak tradisional kita akan memahaminya hanya dalam sepersekian detik.

Kesimpulan

LLM AI seperti ChatGPT adalah teknologi yang menarik dan mampu menangani banyak masalah yang sulit diprogram dengan cara tradisional. Namun, masih butuh waktu lama—jika memang bisa—sebelum AI dapat menggantikan seluruh perangkat lunak tradisional.

Untuk banyak aplikasi bisnis, AI bisa jadi pemborosan sumber daya, bahkan berisiko membahayakan bisnis Anda. Penting untuk memahami kapan AI tepat digunakan. Contohnya, Business Landing mengembangkan berbagai produk AI, termasuk AI search bot generasi berikutnya untuk website. AI search bot ini menggabungkan keunggulan AI dengan perangkat lunak berkualitas enterprise. Kombinasi unggulan semacam ini sangat mungkin menjadi masa depan AI.

Jika Anda ingin tahu sistem perangkat lunak apa yang paling sesuai untuk bisnis Anda, silakan hubungi kami atau tinggalkan pertanyaan di bawah.

Catatan

Jika Anda ingin contoh lain tentang bagaimana ChatGPT-4 bisa salah paham, coba lihat studi kasus lain yang kami dokumentasikan. Kami memperhatikan bahwa ChatGPT-4 dapat menyelesaikan sebuah masalah terkenal ketika disajikan dalam bentuk tradisionalnya, tetapi benar-benar tidak mampu ketika kami sedikit saja mengubahnya. Hal ini dengan jelas menunjukkan bahwa model AI LLM hanya sekadar mengenali pola kata, tanpa benar-benar memahami logikanya.

Kegagalan pengenalan serupa terjadi di sini. Dalam kasus ini, kegagalannya sepertinya karena AI mengenali teks tersebut dan menganggapnya sebagai versi yang lebih kompleks dari masalah ini. Versi yang lebih kompleks itu adalah versi yang biasanya ditemui.

Leave a Comment