Modul Ajar

Modul 3 Konsep Dasar Kecerdasan Artifisial Jenjang Pendidikan Dasar & Menengah, Belajar Koding

Dimuat pembahasan Konsep Dasar Kecerdasan Artifisial pada jenjang pendidikan dasar dan menengah.

Tayang:
Penulis: Tria Agustina | Editor: Tria Agustina
Ilustrasi/AI
ILUSTRASI MODUL AJAR - Berikut ini panduan lengkap belajar koding dengan pembahasan Modul 3 pembahasan Konsep Dasar Kecerdasan Artifisial pada jenjang pendidikan dasar dan menengah. 

FUNGSI
Digunakan dalam asisten virtual dan chatbot yang menerima perintah suara.

CONTOH
Alibaba Cloud yang memiliki teknologi pengenalan suara canggih.

TEKNOLOGI
Affect Detection (Deteksi Afektif)

PENJELASAN
KA yang bisa menganalisis ekspresi wajah, teks, dan suara untuk mengenali emosi manusia.

FUNGSI
Banyak digunakan dalam analisis sentimen di media sosial dan layanan pelanggan.

CONTOH
Affectiva, teknologi yang bisa mendeteksi emosi manusia dari wajah mereka.

TEKNOLOGI
Data Mining for Prediction (Penambangan Data untuk Prediksi)

PENJELASAN
KA yang bisa menganalisis data besar untuk membuat prediksi tentang keuangan, cuaca, kesehatan dan lainnya, serta mendeteksi anomali dan penipuan.

FUNGSI
Digunakan dalam prediksi pasar saham, diagnosis medis, dan sistem manajemen kota pintar.

CONTOH
Persyst untuk deteksi kejang dan lonjakan aktivitas listrik yang tidak normal.

TEKNOLOGI
Kreativitas Artifisial atau KA Generatif

PENJELASAN
KA dapat menciptakan foto baru, musik, karya seni, atau cerita.

FUNGSI
Generative Adversarial Networks (GANS) - Model KA yang bekerja dengan dua jaringan yang bersaing satu sama lain untuk menghasilkan gambar atau karya yang realistis.

Model bahasa regresif otomatis yang bisa menghasilkan teks seperti manusia dengan cara memprediksi kata berikutnya dalam sebuah kalimat.

CONTOH
Situs This Person Does Not Exist, yang bisa membuat wajah manusia yang tidak nyata tetapi terlihat sangat nyata.

GPT-3 dapat menulis artikel, puisi, atau menjawab pertanyaan, meskipun sebenarnya tidak memahami apa yang ditulisnya.

PENTING UNTUK DIINGAT!

KA tidak selalu benar
Jika KA diberi data yang salah atau tidak cukup banyak, maka prediksinya juga bisa salah. Oleh karena itu, semakin baik data yang digunakan untuk melatih KA, semakin akurat hasilnya.

Limitasi Kecerdasan Artifisial (ΚΑ)

Meskipun Kecerdasan Artifisial (KA) telah berkembang pesat dan digunakan dalam berbagai bidang, teknologi ini masih memiliki banyak keterbatasan.

Ketidakmampuannya untuk memiliki kreativitas sejati, perasaan, atau pemahaman kontekstual yang mendalam.

Membuat kesalahan prediksi akibat keterbatasan data

Sangat bergantung pada data berkualitas tinggi

Etika Kecerdasan Artifisial

Kecerdasan Artifisial sebagai Bagian Penting di dalam Kehidupan di Abad 21.

Di era digital saat ini, Kecerdasan Artifisial (KA) telah menjadi bagian tak terpisahkan dari kehidupan sehari-hari.
Dengan kemampuannya dalam mengolah dan menganalisis data dalam jumlah besar secara cepat dan akurat, KA membantu meningkatkan efisiensi, mempercepat pengambilan keputusan, serta memberikan solusi yang lebih cerdas dan terpersonalisasi (Russell & Norvig, 2021).
Selain manfaat praktisnya, KA juga berperan besar dalam mendorong inovasi dan perkembangan ilmu pengetahuan.

Teknologi KA digunakan untuk mendiagnosis penyakit lebih awal dan lebih akurat, membantu dalam pengembangan obat, bahkan di dalam proses pembedahan.

Teknologi KA memungkinkan sistem pembelajaran adaptif yang dapat
menyesuaikan materi dengan kebutuhan masing-masing peserta didik (personalisasi).

Teknologi KA membantu dalam pemantauan perubahan iklim dan optimalisasi sumber daya energi, serta pemilihan sampah.

Beberapa Tantangan di dalam Menggunakan Kecerdasan Artifisial (KA)

Selain aspek teknis dan keamanan, literasi digital juga berperan penting dalam penggunaan KA yang bertanggung jawab.
Pendidik dan peserta didik perlu memahami bagaimana teknologi ini bekerja, apa saja manfaatnya, serta risiko yang mungkin muncul.
Misalnya, KA dapat membantu dalam memberikan rekomendasi bahan ajar atau mengoreksi tugas secara otomatis, tetapi tetap perlu diawasi oleh manusia untuk memastikan keakuratannya.

Kecerdasan Artifisial (KA) versus Manusia

Adanya bias algoritma
Perlindungan privasi dan keamanan data

KA tidak selalu BENAR Selalu cek kembali keakuratannya

Prinsip-prinsip Penting dalam Menggunakan Kecerdasan Artifisial (KA) secara Bertanggung Jawab

Transparansi
Akuntabilitas
Adil dan Nondiskriminatif
Privasi

Transparansi

Transparansi dalam KA berarti bahwa setiap keputusan yang dihasilkan oleh KA harus dapat dijelaskan dan dipahami oleh manusia (European Commission, 2019).

Misalnya, jika KA digunakan dalam pengambilan keputusan penting seperti seleksi kerja atau penentuan kredit di bank, maka perusahaan yang menggunakan KA harus bisa menjelaskan apa dasar keputusan yang diambil KA dan tidak hanya mengandalkan keputusan otomatis yang tidak bisa diverifikasi validitas dan keabsahannya.

Akuntabilitas

KA bukanlah manusia yang bisa bertanggung jawab atas keputusannya sendiri. Oleh karena itu, setiap sistem KA yang digunakan untuk membantu manusia harus memiliki pemilik atau pengelola yang bertanggung jawab jika terjadi kesalahan (UNESCO, 2021).
Jika KA membuat keputusan yang salah, maka harus ada pihak yang dapat menganalisis, memperbaiki, dan memastikan tidak ada orang yang dirugikan.

Misalnya, dalam kasus mobil otonom, jika terjadi kecelakaan, pertanyaannya adalah apakah yang bertanggung jawab adalah si pembuat mobil, pengembang KA, atau pemilik kendaraan?
Sayangnya, sampai saat ini, jawaban dari pertanyaan ini masih menjadi suatu hal yang diperdebatkan di dalam regulasi global (Russell & Norvig, 2021).

Adil dan Nondiskriminatif

KA tidak memiliki niat buruk, tetapi karena ia belajar dari data yang diberikan oleh manusia, ia bisa mewarisi bias dan ketidakadilan yang ada dalam data tersebut. Jika KA tidak dikembangkan dengan hati-hati, ia dapat membuat keputusan yang tidak adil dan merugikan kelompok tertentu (UNESCO, 2021).

Oleh karena itu, pengembang KA harus memastikan bahwa data yang digunakan beragam dan representatif, sehingga tidak ada kelompok yang dirugikan.

Contohnya, penelitian oleh MIT (Johnson, 2023) menemukan bahwa sistem pengenalan wajah KA lebih akurat dalam mengenali wajah orang berkulit terang dibandingkan orang berkulit gelap. Hal ini terjadi karena data yang digunakan untuk melatih KA lebih banyak berasal dari wajah orang berkulit terang.

Ini menjadi masalah serius dalam sistem keamanan atau seleksi kerja, dimana KA yang tidak adil bisa menolak kandidat tertentu hanya karena bias dalam data pelatihannya.

Privasi

Banyak sistem KA bekerja dengan cara mengumpulkan informasi dari pengguna untuk memberikan layanan yang lebih baik, tetapi jika tidak diatur dengan baik, hal ini bisa menjadi pelanggaran privasi (European Commission, 2019).

Misalnya, aplikasi yang menggunakan KA untuk mengenali wajah dan suara pengguna, bisa saja menyimpan data ini tanpa izin atau menggunakannya tanpa sepengetahuan pemiliknya sehingga memungkinkan terjadi masalah.

VERSI PENDIDIKAN:

KA tidak akan menggantikan GURU - Tapi Guru dengan KA akan menggantikan Guru tanpa КА.

 

Sumber: Sriwijaya Post
Halaman 4/4
Rekomendasi untuk Anda
Ikuti kami di
Komentar

Berita Terkini

© 2026 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved