ADVERTISEMENT

Dari Layar ke Rumah Sakit: Kisah Pria 60 Tahun dan Bromism

Dari Layar ke Rumah Sakit: Kisah Pria 60 Tahun dan Bromism
Ilustrasi Dari Layar ke Rumah Sakit: Kisah Pria 60 Tahun dan Bromism

Pada Agustus 2025, The Guardian melaporkan sebuah kasus langka di Amerika Serikat: seorang pria berusia 60 tahun mengalami bromism—keracunan bromida—setelah mengikuti saran dari ChatGPT. Pria tersebut awalnya ingin menghilangkan garam meja (natrium klorida) dari pola makan. Ketika bertanya kepada AI, ia mendapat rekomendasi untuk mengganti garam dengan natrium bromida. Tidak ada peringatan bahaya atau pertanyaan lanjutan dari AI.

Menurut laporan itu, selama tiga bulan ia mengonsumsi natrium bromida. Gejala mulai muncul: paranoia (termasuk keyakinan bahwa tetangganya mencoba meracuninya), halusinasi, insomnia, rasa haus berlebihan, jerawat dan bercak vaskular di wajah, serta gangguan koordinasi tubuh. Ia kemudian dirawat di rumah sakit dan bahkan sempat dinyatakan tidak waras secara psikiatris.

Tim medis menemukan kadar bromida yang sangat tinggi dalam darahnya. Setelah perawatan intensif dengan cairan intravena, elektrolit, dan obat antipsikotik, kondisinya membaik. Peneliti dari University of Washington mencoba mengulangi pertanyaan yang sama kepada ChatGPT dan mendapati bahwa AI tetap menyarankan bromida sebagai pengganti garam tanpa memberikan konteks medis atau peringatan risiko.

Pihak OpenAI, seperti dilaporkan, menyatakan bahwa ChatGPT tidak dimaksudkan sebagai pengganti nasihat medis profesional. Versi terbaru GPT-5 diklaim lebih proaktif dalam menandai potensi masalah kesehatan, meski perusahaan tetap menegaskan keterbatasannya.

Bahaya AI yang Tanpa Rasa dan Tanpa Konteks

Kasus ini menjadi pengingat bahwa kefasihan bahasa AI tidak selalu berarti kebenaran atau keamanan. Mesin seperti ChatGPT dibangun untuk menyusun kalimat yang terdengar meyakinkan, bukan untuk menimbang risiko nyawa. Ia tidak memiliki naluri untuk bertanya, “Mengapa kamu ingin mengganti garam?” atau “Apakah kamu tahu zat ini beracun?”

Ketika manusia terlalu percaya pada jawaban yang disajikan rapi dan ilmiah, naluri kritis bisa memudar. Di sinilah bahaya sebenarnya: bukan hanya kesalahan algoritme, tetapi keyakinan kita yang terlalu cepat menyerahkan penilaian kepada sistem yang tidak memiliki pengalaman tubuh, rasa sakit, atau empati.

AI dapat menjadi pintu masuk informasi, tetapi bukan gerbang akhir pengambilan keputusan medis. Sama seperti pisau bedah yang bermanfaat di tangan ahli, teknologi ini bisa berbahaya jika digunakan tanpa kontrol dan pengawasan. Tragedi bromism ini menunjukkan perlunya batas yang jelas: teknologi membantu, manusia memutuskan.

One Comment

  1. Kalau yang berhubungan dengan kesehatan, memang baiknya perlu konsultasi ke dokter atau tenaga medis

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *