Teknologi Berperikemanusiaan dan Etika Kerjaya Rahsia Terbongkar untuk Masa Depan Anda

webmaster

A diverse group of professional individuals, male and female, collaborating seamlessly in a modern, brightly lit office environment. They are fully clothed in modest business attire, gathered around a large transparent holographic display showing complex data visualizations and interactive AI models. One person is gesturing towards the screen, engaged in an earnest discussion. The scene emphasizes human-AI synergy, intellectual engagement, and upskilling. The atmosphere is professional, forward-thinking, and productive, highlighting ethical innovation. Safe for work, appropriate content, fully clothed, professional dress, perfect anatomy, correct proportions, natural pose, well-formed hands, proper finger count, natural body proportions, high-resolution, professional photography, digital art.

Pernahkah anda terfikir, dalam hiruk-pikuk kemajuan teknologi yang semakin pesat ini, di mana letaknya ‘sentuhan manusia’ kita? Saya sendiri seringkali merasa kagum dengan keupayaan AI yang kini mampu melakukan pelbagai tugasan, namun pada masa sama, timbul persoalan besar tentang etika profesional yang perlu dijaga agar teknologi tidak menggantikan nilai kemanusiaan kita sepenuhnya.

Trend seperti *deepfake* dan automasi berlebihan mula menimbulkan kebimbangan serius tentang integriti dan masa depan pekerjaan. Sebagai seorang yang hidup dalam era digital ini, saya merasakan pentingnya kita menyeimbangkan inovasi dengan tanggungjawab moral.

Isu-isu seperti privasi data peribadi dan bias algoritma bukan lagi cerita fiksyen, malah sudah menjadi realiti yang kita hadapi setiap hari. Mari kita ketahui lebih lanjut di bawah.

Pernahkah anda terfikir, dalam hiruk-pikuk kemajuan teknologi yang semakin pesat ini, di mana letaknya ‘sentuhan manusia’ kita? Saya sendiri seringkali merasa kagum dengan keupayaan AI yang kini mampu melakukan pelbagai tugasan, namun pada masa sama, timbul persoalan besar tentang etika profesional yang perlu dijaga agar teknologi tidak menggantikan nilai kemanusiaan kita sepenuhnya.

Trend seperti *deepfake* dan automasi berlebihan mula menimbulkan kebimbangan serius tentang integriti dan masa depan pekerjaan. Sebagai seorang yang hidup dalam era digital ini, saya merasakan pentingnya kita menyeimbangkan inovasi dengan tanggungjawab moral.

Isu-isu seperti privasi data peribadi dan bias algoritma bukan lagi cerita fiksyen, malah sudah menjadi realiti yang kita hadapi setiap hari. Mari kita ketahui lebih lanjut di bawah.

Cabaran Etika Digital dalam Masyarakat Kita

teknologi - 이미지 1

Teknologi, khususnya kecerdasan buatan (AI), semakin menembusi setiap lapisan kehidupan kita. Dari algoritma yang mencadangkan apa yang perlu kita tonton di YouTube hingga kepada sistem automasi di kilang, AI ada di mana-mana.

Namun, adakah kita benar-benar sedar akan implikasi etika yang datang bersamanya? Saya teringat pengalaman sendiri ketika membeli-belah dalam talian; cadangan produk yang begitu tepat adakalanya membuat saya terfikir, “Bagaimana AI tahu saya inginkan ini?” Di satu sisi ia memudahkan, tetapi di sisi lain, ia menimbulkan persoalan tentang sejauh mana data peribadi saya diproses dan digunakan.

Saya mula rasa, ada jurang besar antara apa yang AI boleh buat dan apa yang ia patut buat. Penggunaan AI yang tidak beretika, misalnya dalam pengawasan besar-besaran tanpa persetujuan jelas, boleh mengancam kebebasan individu dan nilai-nilai demokrasi yang kita pegang teguh.

Malah, saya pernah terbaca tentang sebuah kes di mana sistem pengesanan wajah digunakan untuk memantau pekerja, dan ini sungguh mengganggu, kerana ia seolah-olah merampas hak asasi kita untuk privasi.

1. Implikasi Sosial AI yang Tidak Terkawal

Apabila AI dibangunkan tanpa garis panduan etika yang kukuh, ia boleh membawa kepada diskriminasi dan ketidakadilan. Misalnya, sistem AI yang dilatih dengan data bias boleh menghasilkan keputusan yang berat sebelah, terutamanya dalam aspek penting seperti pengambilan pekerja, pemberian pinjaman, atau bahkan dalam sistem keadilan jenayah.

Saya pernah membaca kajian yang menunjukkan bagaimana algoritma tertentu cenderung memberikan skor risiko yang lebih tinggi kepada individu dari latar belakang minoriti, meskipun tiada justifikasi yang jelas.

Ini bukan sekadar isu teknikal, tetapi ia adalah cerminan bias yang wujud dalam masyarakat kita dan bagaimana bias itu boleh diperkukuh oleh teknologi jika kita tidak berhati-hati.

Apa yang paling membimbangkan saya ialah jika kita tidak menangani isu ini sekarang, jurang sosial mungkin akan menjadi lebih parah di masa hadapan. Kita perlu memastikan setiap inovasi AI adalah untuk kebaikan semua, bukan hanya segelintir pihak.

2. Kebergantungan Berlebihan dan Kehilangan Kemahiran Manusia

Satu lagi isu yang meresahkan saya ialah kebergantungan kita yang semakin meningkat terhadap AI. Cuba bayangkan, jika kita terlalu bergantung pada AI untuk membuat keputusan, adakah kita akan kehilangan kemahiran berfikir kritis dan menyelesaikan masalah secara mandiri?

Saya perasan di kalangan generasi muda sekarang, ada kecenderungan untuk terus mencari jawapan di internet tanpa perlu bersusah payah memikirkan penyelesaiannya sendiri.

Walaupun efisien, ini sebenarnya membantutkan perkembangan kognitif. Dalam dunia pekerjaan, automasi berlebihan boleh menyebabkan kehilangan pekerjaan dalam skala besar, terutamanya bagi tugas-tugas rutin yang boleh digantikan oleh mesin.

Ini bukan sekadar isu ekonomi, tetapi juga sosial. Bagaimana kita mahu memastikan pekerja kita kekal relevan dan berdaya saing apabila landskap pekerjaan berubah begitu drastik?

Saya percaya, kita perlu mencari keseimbangan yang sihat antara menggunakan teknologi dan memelihara keupayaan manusiawi kita.

Melindungi Privasi Data di Tengah Kemajuan AI

Dalam era digital yang serba pantas ini, data peribadi kita menjadi “minyak baharu” yang amat berharga. Setiap klik, setiap pembelian, setiap lokasi yang kita kunjungi melalui telefon pintar, semuanya menghasilkan jejak data yang boleh dikumpul dan dianalisis oleh syarikat-syarikat besar.

Pengalaman saya sendiri menunjukkan betapa mudahnya maklumat peribadi kita terdedah. Saya pernah menerima panggilan telemarketing daripada syarikat yang tidak pernah saya berikan nombor telefon saya, dan itu menimbulkan rasa tidak selesa yang mendalam.

Apa yang lebih menakutkan ialah apabila maklumat sensitif seperti data kesihatan atau kewangan jatuh ke tangan yang salah, akibatnya boleh menjadi sangat buruk, daripada penipuan identiti sehinggalah kepada kerugian kewangan yang besar.

Jadi, bagaimana kita boleh memastikan privasi data kita terjamin sedangkan AI semakin bijak dalam mengumpul dan memproses maklumat? Persoalan ini sering bermain di fikiran saya, dan ia memerlukan jawapan yang komprehensif.

1. Peningkatan Ancaman Siber dan Penipuan

Dengan semakin canggihnya teknologi AI, ancaman siber juga turut berevolusi. Penipuan *phishing* kini lebih sukar dikesan kerana e-mel atau mesej penipu kelihatan sangat asli, seolah-olah dihantar oleh institusi yang sah.

Saya sendiri hampir tertipu dengan satu SMS yang kononnya dari bank, meminta saya untuk mengesahkan butiran akaun. Mujurlah saya sempat berfikir panjang dan memeriksa semula sebelum klik pautan yang diberikan.

Teknologi *deepfake* suara dan video juga semakin realistik, membolehkan penjenayah menyamar sebagai orang lain untuk melakukan penipuan. Bayangkan jika suara ahli keluarga anda dipalsukan untuk meminta wang dalam keadaan kecemasan palsu; ia pasti menyebabkan kekeliruan dan kerugian yang besar.

Kita perlu sentiasa berhati-hati dan tidak mudah percaya pada apa yang kita lihat atau dengar secara digital.

2. Peranan Perundangan dan Kesedaran Awam

Untuk melindungi privasi data, bukan sahaja teknologi yang perlu diperkemas, tetapi juga kerangka perundangan dan kesedaran awam. Di Malaysia, kita mempunyai Akta Perlindungan Data Peribadi (PDPA) 2010, yang bertujuan untuk mengawal selia pemprosesan data peribadi dalam transaksi komersial.

Walaupun begitu, ramai di antara kita yang masih tidak begitu faham akan hak-hak mereka di bawah akta ini, atau cara untuk membuat aduan jika data mereka disalahgunakan.

Saya rasa, pihak berkuasa perlu lebih agresif dalam mendidik masyarakat tentang isu privasi data, mungkin melalui kempen kesedaran yang berterusan di media massa.

Selain itu, syarikat-syarikat juga perlu telus dalam memberitahu bagaimana data pengguna dikumpul, digunakan, dan dilindungi. Inilah cara kita boleh membina kepercayaan dan memastikan setiap individu berasa selamat dalam ekosistem digital.

Prinsip Etika AI Penerangan Ringkas Contoh Aplikasi Praktikal
Ketelusan (Transparency) Sistem AI perlu mudah difahami dan diterangkan operasinya. Algoritma pinjaman bank menerangkan faktor-faktor penentu kelulusan.
Keadilan (Fairness) AI tidak boleh diskriminasi atau berat sebelah berdasarkan kaum, jantina, dll. Sistem pengambilan pekerja AI dilatih dengan data yang tidak bias.
Privasi (Privacy) Data peribadi dilindungi dan digunakan dengan persetujuan yang jelas. Aplikasi kesihatan hanya berkongsi data secara anonim dan dengan keizinan.
Keselamatan (Safety) Sistem AI harus selamat dan tidak menimbulkan bahaya fizikal atau emosi. Kenderaan autonomi menjalani ujian keselamatan ketat sebelum diguna.
Tanggungjawab (Accountability) Pembangun dan pengguna AI bertanggungjawab atas keputusan dan impak AI. Pihak pengeluar bertanggungjawab jika robot autonomi menyebabkan kerosakan.

Membendung Ancaman Deepfake dan Maklumat Palsu

Dalam dunia di mana sempadan antara realiti dan fiksyen semakin kabur, ancaman *deepfake* dan maklumat palsu (atau *fake news*) menjadi isu yang sangat membimbangkan.

Saya masih ingat lagi bagaimana satu video *deepfake* seorang ahli politik tersebar luas di media sosial, dan ramai yang percaya ia adalah video asli.

Ini menunjukkan betapa mudahnya kita diperdaya oleh teknologi yang semakin canggih ini. *Deepfake*, yang menggunakan AI untuk mencipta video atau audio palsu yang sangat realistik, bukan sahaja mengancam reputasi individu, malah boleh menggugat kestabilan sosial dan politik sesebuah negara.

Maklumat palsu pula, dengan niat untuk mengelirukan atau memanipulasi, boleh menyebabkan panik, perpecahan, dan menjejaskan kepercayaan terhadap sumber berita yang sahih.

Saya berpendapat, ini adalah satu medan perang digital di mana kebenaran menjadi mangsa, dan kita semua perlu menjadi askar yang berani mempertahankan integriti maklumat.

1. Strategi Mengesan dan Membendung Deepfake

Mendeteksi *deepfake* kini menjadi satu cabaran besar kerana teknologi penciptaan *deepfake* itu sendiri semakin canggih. Namun begitu, terdapat beberapa kaedah yang boleh kita gunakan sebagai pengguna biasa untuk mengenal pasti video atau audio palsu ini.

Pertama, perhatikan ketidakselarasan dalam ekspresi wajah, pergerakan bibir yang tidak sinkron dengan suara, atau pencahayaan yang aneh. Saya sering menggunakan kaedah ini ketika menonton video yang diragui kesahihannya.

Kedua, periksa sumber maklumat. Adakah ia datang dari akaun yang sahih atau sumber berita yang boleh dipercayai? Ketiga, cari pengesahan silang daripada pelbagai sumber berita yang bereputasi.

Jika sesuatu berita itu terlalu sensasi atau mencurigakan, kebarangkalian ia palsu adalah tinggi.

2. Tanggungjawab Sosial dalam Penyebaran Maklumat

Sebagai pengguna media sosial, kita semua mempunyai peranan penting dalam membendung penyebaran maklumat palsu. Saya rasa, ramai di antara kita yang bersalah kerana terlalu cepat berkongsi sesuatu tanpa menyemak kesahihannya terlebih dahulu.

Niat mungkin baik, tetapi kesannya boleh menjadi malapetaka. Sebelum berkongsi, tanyakan pada diri sendiri: “Adakah saya pasti ini benar? Adakah ia dari sumber yang boleh dipercayai?” Sikap bertanggungjawab ini amat penting.

Selain itu, platform media sosial juga perlu mengambil langkah yang lebih proaktif, seperti menggunakan AI untuk mengesan dan melabelkan kandungan *deepfake* atau maklumat palsu, serta bekerjasama dengan organisasi semakan fakta.

Ini adalah usaha kolektif yang memerlukan kerjasama semua pihak untuk memastikan integriti maklumat dalam ruang digital.

Memperkasa Modal Insan dalam Era Automasi

Apabila kita berbicara tentang automasi dan kecerdasan buatan, ramai yang terus mengaitkannya dengan kehilangan pekerjaan. Memang benar, beberapa jenis pekerjaan rutin mungkin akan digantikan oleh mesin, tetapi saya percaya, ini juga membuka peluang baharu yang lebih menarik dan mencabar.

Pengalaman saya sendiri menunjukkan bagaimana teknologi boleh menjadi pemangkin kepada peningkatan kemahiran dan kecekapan. Contohnya, dahulu saya menghabiskan banyak masa melakukan tugas-tugas pentadbiran yang berulang, tetapi kini dengan adanya alat automasi, saya boleh fokus kepada kerja-kerja yang memerlukan pemikiran kritis dan kreativiti.

Ini bukan lagi tentang ‘AI vs. Manusia’, tetapi ‘AI + Manusia’. Kita perlu memperkasa modal insan kita dengan kemahiran yang tidak boleh ditiru oleh AI, iaitu kemahiran sosial, emosi, kreativiti, dan pemikiran strategik.

1. Pembangunan Kemahiran Baharu untuk Pekerjaan Masa Depan

Dalam era automasi, kemahiran yang paling dicari adalah yang melengkapi AI, bukan bersaing dengannya. Ini termasuklah kemahiran literasi data, pemikiran reka bentuk (*design thinking*), kemahiran penyelesaian masalah yang kompleks, dan juga kemahiran komunikasi yang berkesan.

Saya rasa, setiap individu perlu mengambil inisiatif untuk belajar sepanjang hayat. Ada banyak kursus dalam talian yang boleh kita sertai, ada juga program-program pembangunan kemahiran yang ditawarkan oleh kerajaan atau syarikat swasta.

Misalnya, program-program latihan semula (*reskilling*) dan peningkatan kemahiran (*upskilling*) dalam bidang analisis data, pengaturcaraan, dan keselamatan siber adalah sangat relevan.

Kita tidak boleh hanya duduk diam dan berharap, tetapi perlu proaktif dalam melengkapkan diri dengan ilmu baharu.

2. Peranan Pendidikan dan Industri

Institusi pendidikan dan industri mempunyai peranan penting dalam membentuk tenaga kerja yang siap menghadapi cabaran automasi. Kurikulum di universiti dan kolej perlu dikemaskini secara berterusan untuk mencerminkan keperluan pasaran kerja.

Saya pernah mendengar tentang beberapa universiti tempatan yang kini menawarkan kursus-kursus dalam bidang AI dan sains data, dan ini adalah langkah yang sangat positif.

Industri pula perlu bekerjasama rapat dengan institusi pendidikan untuk menyediakan peluang latihan industri dan pendedahan kepada teknologi terkini. Selain itu, syarikat juga harus melabur dalam latihan dan pembangunan pekerja sedia ada, bukan hanya memecat mereka apabila automasi mengambil alih.

Dengan cara ini, kita boleh memastikan transisi yang lancar dan semua pihak mendapat manfaat daripada kemajuan teknologi.

Membina Budaya Teknologi Bertanggungjawab

Apabila kita bercakap tentang teknologi, saya rasa bukan sahaja kemajuan dan inovasi yang perlu diberi perhatian, tetapi juga bagaimana kita menggunakan teknologi tersebut secara bertanggungjawab.

Membangunkan budaya teknologi yang bertanggungjawab bermula dari peringkat individu hinggalah ke peringkat korporat dan kerajaan. Kita tidak boleh hanya mengejar keuntungan atau kemudahan semata-mata, tanpa mengambil kira impak sosial, etika, dan persekitaran.

Misalnya, pengeluar telefon pintar perlu memastikan proses pembuatan peranti mereka tidak menggunakan buruh kanak-kanak atau bahan-bahan yang mencemarkan alam sekitar.

Sebagai pengguna, saya rasa kita juga perlu membuat pilihan yang sedar, memilih produk dan perkhidmatan daripada syarikat yang mempunyai rekod etika yang baik.

Ia bukan lagi tentang “boleh kita buat?”, tetapi “patutkah kita buat?”

1. Etika dalam Pembangunan AI

Bagi pembangun AI, etika perlu menjadi tunjang utama dalam setiap fasa pembangunan. Ini bermula dari reka bentuk, pengumpulan data, latihan model, sehinggalah kepada pelancaran dan pemantauan.

Mereka perlu sentiasa bertanya: “Adakah AI ini adil? Adakah ia selamat? Adakah ia telus?

Adakah ia menghormati privasi pengguna?” Proses pembangunan AI yang beretika ini termasuklah memastikan data latihan adalah representatif dan tidak bias, serta mempunyai mekanisme untuk mengesan dan membetulkan kesilapan atau bias yang mungkin wujud.

Saya percaya, syarikat-syarikat besar terutamanya, perlu melabur dalam pasukan etika AI yang berdedikasi, terdiri daripada pelbagai latar belakang – bukan hanya jurutera, tetapi juga ahli sosiologi, etika, dan undang-undang – untuk memastikan setiap aspek dipertimbangkan.

2. Peranan Komuniti dan Pendekatan Pelbagai Pihak

Membina budaya teknologi yang bertanggungjawab memerlukan usaha kolektif daripada pelbagai pihak: kerajaan, industri, ahli akademik, masyarakat sivil, dan individu.

Kerajaan perlu menggubal dasar dan undang-undang yang relevan dan terkini. Industri perlu mengamalkan tadbir urus korporat yang baik dan mengutamakan etika dalam inovasi.

Ahli akademik pula boleh melakukan penyelidikan dan mendidik generasi baharu. Masyarakat sivil boleh menjadi suara rakyat dan memberi tekanan untuk perubahan.

Saya rasa, kita semua perlu duduk semeja dan berbincang, berkongsi pandangan dan mencari penyelesaian bersama. Apabila komuniti memainkan peranan aktif dalam perbincangan tentang teknologi, barulah kita boleh memastikan inovasi itu benar-benar memberi manfaat kepada semua dan bukan hanya segelintir pihak.

Inovasi dan Kepercayaan: Keseimbangan yang Wajib Ada

Dalam perlumbaan menuju masa depan yang dipacu teknologi, seringkali kita terlupa bahawa kepercayaan adalah aset yang paling berharga. Tanpa kepercayaan, teknologi secanggih mana pun tidak akan diterima sepenuhnya oleh masyarakat.

Saya pernah terfikir, bagaimana jika teknologi yang kita gunakan setiap hari, seperti aplikasi perbankan atau media sosial, tiba-tiba kehilangan kepercayaan pengguna?

Kesannya pasti sangat besar. Ini bukan sekadar isu teknikal, tetapi ia melibatkan psikologi manusia, emosi, dan nilai-nilai sosial. Membina dan mengekalkan kepercayaan dalam ekosistem digital yang sentiasa berubah-ubah ini adalah satu cabaran besar, tetapi ia adalah keseimbangan yang wajib ada jika kita mahu inovasi itu kekal mampan dan bermanfaat untuk semua.

1. Membangunkan Sistem AI yang Berorientasikan Manusia

Untuk membina kepercayaan, kita perlu membangunkan sistem AI yang berorientasikan manusia (*human-centric*). Ini bermakna, teknologi harus direka bentuk untuk memperkasakan manusia, bukannya menggantikan mereka atau mengambil alih kawalan.

Saya sering melihat syarikat-syarikat yang terlalu fokus pada aspek teknologi semata-mata, tanpa mengambil kira pengalaman pengguna atau impak sosial.

Pendekatan *human-centric* ini memerlukan empati dan pemahaman mendalam tentang keperluan, nilai, dan batasan manusia. AI harus berfungsi sebagai alat yang membantu kita mencapai potensi penuh, bukan sebagai entiti yang mengawal kita.

Misalnya, sistem AI dalam bidang kesihatan harus membantu doktor membuat diagnosis yang lebih tepat, bukan menggantikan keupayaan doktor untuk berinteraksi dan memahami pesakit secara holistik.

2. Transparensi dan Akauntabiliti sebagai Teras Kepercayaan

Dua tonggak utama dalam membina kepercayaan adalah transparensi (ketelusan) dan akauntabiliti (tanggungjawab). Pengguna perlu faham bagaimana AI berfungsi, data apa yang digunakan, dan mengapa keputusan tertentu dibuat oleh AI.

Ini sangat penting terutamanya dalam sistem yang kritikal seperti kewangan atau keadilan. Apabila sesuatu yang tidak diingini berlaku, siapa yang perlu dipertanggungjawabkan?

Adakah syarikat yang membangunkan AI, atau pengguna yang menggunakan AI tersebut? Saya rasa, perlu ada kerangka akauntabiliti yang jelas untuk setiap sistem AI yang dibangunkan dan digunakan.

Tanpa ketelusan, pengguna akan sentiasa ragu-ragu. Tanpa akauntabiliti, tiada siapa yang akan mengambil tanggungjawab jika berlaku kesilapan. Jadi, saya amat percaya bahawa kedua-dua prinsip ini, ketelusan dan akauntabiliti, adalah asas kepada kepercayaan dalam era digital.

Pernahkah anda terfikir, dalam hiruk-pikuk kemajuan teknologi yang semakin pesat ini, di mana letaknya ‘sentuhan manusia’ kita? Saya sendiri seringkali merasa kagum dengan keupayaan AI yang kini mampu melakukan pelbagai tugasan, namun pada masa sama, timbul persoalan besar tentang etika profesional yang perlu dijaga agar teknologi tidak menggantikan nilai kemanusiaan kita sepenuhnya.

Trend seperti *deepfake* dan automasi berlebihan mula menimbulkan kebimbangan serius tentang integriti dan masa depan pekerjaan. Sebagai seorang yang hidup dalam era digital ini, saya merasakan pentingnya kita menyeimbangkan inovasi dengan tanggungjawab moral.

Isu-isu seperti privasi data peribadi dan bias algoritma bukan lagi cerita fiksyen, malah sudah menjadi realiti yang kita hadapi setiap hari. Mari kita ketahui lebih lanjut di bawah.

Cabaran Etika Digital dalam Masyarakat Kita

Teknologi, khususnya kecerdasan buatan (AI), semakin menembusi setiap lapisan kehidupan kita. Dari algoritma yang mencadangkan apa yang perlu kita tonton di YouTube hingga kepada sistem automasi di kilang, AI ada di mana-mana. Namun, adakah kita benar-benar sedar akan implikasi etika yang datang bersamanya? Saya teringat pengalaman sendiri ketika membeli-belah dalam talian; cadangan produk yang begitu tepat adakalanya membuat saya terfikir, “Bagaimana AI tahu saya inginkan ini?” Di satu sisi ia memudahkan, tetapi di sisi lain, ia menimbulkan persoalan tentang sejauh mana data peribadi saya diproses dan digunakan. Saya mula rasa, ada jurang besar antara apa yang AI boleh buat dan apa yang ia patut buat. Penggunaan AI yang tidak beretika, misalnya dalam pengawasan besar-besaran tanpa persetujuan jelas, boleh mengancam kebebasan individu dan nilai-nilai demokrasi yang kita pegang teguh. Malah, saya pernah terbaca tentang sebuah kes di mana sistem pengesanan wajah digunakan untuk memantau pekerja, dan ini sungguh mengganggu, kerana ia seolah-olah merampas hak asasi kita untuk privasi.

1. Implikasi Sosial AI yang Tidak Terkawal

Apabila AI dibangunkan tanpa garis panduan etika yang kukuh, ia boleh membawa kepada diskriminasi dan ketidakadilan. Misalnya, sistem AI yang dilatih dengan data bias boleh menghasilkan keputusan yang berat sebelah, terutamanya dalam aspek penting seperti pengambilan pekerja, pemberian pinjaman, atau bahkan dalam sistem keadilan jenayah. Saya pernah membaca kajian yang menunjukkan bagaimana algoritma tertentu cenderung memberikan skor risiko yang lebih tinggi kepada individu dari latar belakang minoriti, meskipun tiada justifikasi yang jelas. Ini bukan sekadar isu teknikal, tetapi ia adalah cerminan bias yang wujud dalam masyarakat kita dan bagaimana bias itu boleh diperkukuh oleh teknologi jika kita tidak berhati-hati. Apa yang paling membimbangkan saya ialah jika kita tidak menangani isu ini sekarang, jurang sosial mungkin akan menjadi lebih parah di masa hadapan. Kita perlu memastikan setiap inovasi AI adalah untuk kebaikan semua, bukan hanya segelintir pihak.

2. Kebergantungan Berlebihan dan Kehilangan Kemahiran Manusia

Satu lagi isu yang meresahkan saya ialah kebergantungan kita yang semakin meningkat terhadap AI. Cuba bayangkan, jika kita terlalu bergantung pada AI untuk membuat keputusan, adakah kita akan kehilangan kemahiran berfikir kritis dan menyelesaikan masalah secara mandiri? Saya perasan di kalangan generasi muda sekarang, ada kecenderungan untuk terus mencari jawapan di internet tanpa perlu bersusah payah memikirkan penyelesaiannya sendiri. Walaupun efisien, ini sebenarnya membantutkan perkembangan kognitif. Dalam dunia pekerjaan, automasi berlebihan boleh menyebabkan kehilangan pekerjaan dalam skala besar, terutamanya bagi tugas-tugas rutin yang boleh digantikan oleh mesin. Ini bukan sekadar isu ekonomi, tetapi juga sosial. Bagaimana kita mahu memastikan pekerja kita kekal relevan dan berdaya saing apabila landskap pekerjaan berubah begitu drastik? Saya percaya, kita perlu mencari keseimbangan yang sihat antara menggunakan teknologi dan memelihara keupayaan manusiawi kita.

Melindungi Privasi Data di Tengah Kemajuan AI

Dalam era digital yang serba pantas ini, data peribadi kita menjadi “minyak baharu” yang amat berharga. Setiap klik, setiap pembelian, setiap lokasi yang kita kunjungi melalui telefon pintar, semuanya menghasilkan jejak data yang boleh dikumpul dan dianalisis oleh syarikat-syarikat besar. Pengalaman saya sendiri menunjukkan betapa mudahnya maklumat peribadi kita terdedah. Saya pernah menerima panggilan telemarketing daripada syarikat yang tidak pernah saya berikan nombor telefon saya, dan itu menimbulkan rasa tidak selesa yang mendalam. Apa yang lebih menakutkan ialah apabila maklumat sensitif seperti data kesihatan atau kewangan jatuh ke tangan yang salah, akibatnya boleh menjadi sangat buruk, daripada penipuan identiti sehinggalah kepada kerugian kewangan yang besar. Jadi, bagaimana kita boleh memastikan privasi data kita terjamin sedangkan AI semakin bijak dalam mengumpul dan memproses maklumat? Persoalan ini sering bermain di fikiran saya, dan ia memerlukan jawapan yang komprehensif.

1. Peningkatan Ancaman Siber dan Penipuan

Dengan semakin canggihnya teknologi AI, ancaman siber juga turut berevolusi. Penipuan *phishing* kini lebih sukar dikesan kerana e-mel atau mesej penipu kelihatan sangat asli, seolah-olah dihantar oleh institusi yang sah. Saya sendiri hampir tertipu dengan satu SMS yang kononnya dari bank, meminta saya untuk mengesahkan butiran akaun. Mujurlah saya sempat berfikir panjang dan memeriksa semula sebelum klik pautan yang diberikan. Teknologi *deepfake* suara dan video juga semakin realistik, membolehkan penjenayah menyamar sebagai orang lain untuk melakukan penipuan. Bayangkan jika suara ahli keluarga anda dipalsukan untuk meminta wang dalam keadaan kecemasan palsu; ia pasti menyebabkan kekeliruan dan kerugian yang besar. Kita perlu sentiasa berhati-hati dan tidak mudah percaya pada apa yang kita lihat atau dengar secara digital.

2. Peranan Perundangan dan Kesedaran Awam

Untuk melindungi privasi data, bukan sahaja teknologi yang perlu diperkemas, tetapi juga kerangka perundangan dan kesedaran awam. Di Malaysia, kita mempunyai Akta Perlindungan Data Peribadi (PDPA) 2010, yang bertujuan untuk mengawal selia pemprosesan data peribadi dalam transaksi komersial. Walaupun begitu, ramai di antara kita yang masih tidak begitu faham akan hak-hak mereka di bawah akta ini, atau cara untuk membuat aduan jika data mereka disalahgunakan. Saya rasa, pihak berkuasa perlu lebih agresif dalam mendidik masyarakat tentang isu privasi data, mungkin melalui kempen kesedaran yang berterusan di media massa. Selain itu, syarikat-syarikat juga perlu telus dalam memberitahu bagaimana data pengguna dikumpul, digunakan, dan dilindungi. Inilah cara kita boleh membina kepercayaan dan memastikan setiap individu berasa selamat dalam ekosistem digital.

Prinsip Etika AI Penerangan Ringkas Contoh Aplikasi Praktikal
Ketelusan (Transparency) Sistem AI perlu mudah difahami dan diterangkan operasinya. Algoritma pinjaman bank menerangkan faktor-faktor penentu kelulusan.
Keadilan (Fairness) AI tidak boleh diskriminasi atau berat sebelah berdasarkan kaum, jantina, dll. Sistem pengambilan pekerja AI dilatih dengan data yang tidak bias.
Privasi (Privacy) Data peribadi dilindungi dan digunakan dengan persetujuan yang jelas. Aplikasi kesihatan hanya berkongsi data secara anonim dan dengan keizinan.
Keselamatan (Safety) Sistem AI harus selamat dan tidak menimbulkan bahaya fizikal atau emosi. Kenderaan autonomi menjalani ujian keselamatan ketat sebelum diguna.
Tanggungjawab (Accountability) Pembangun dan pengguna AI bertanggungjawab atas keputusan dan impak AI. Pihak pengeluar bertanggungjawab jika robot autonomi menyebabkan kerosakan.

Membendung Ancaman Deepfake dan Maklumat Palsu

Dalam dunia di mana sempadan antara realiti dan fiksyen semakin kabur, ancaman *deepfake* dan maklumat palsu (atau *fake news*) menjadi isu yang sangat membimbangkan. Saya masih ingat lagi bagaimana satu video *deepfake* seorang ahli politik tersebar luas di media sosial, dan ramai yang percaya ia adalah video asli. Ini menunjukkan betapa mudahnya kita diperdaya oleh teknologi yang semakin canggih ini. *Deepfake*, yang menggunakan AI untuk mencipta video atau audio palsu yang sangat realistik, bukan sahaja mengancam reputasi individu, malah boleh menggugat kestabilan sosial dan politik sesebuah negara. Maklumat palsu pula, dengan niat untuk mengelirukan atau memanipulasi, boleh menyebabkan panik, perpecahan, dan menjejaskan kepercayaan terhadap sumber berita yang sahih. Saya berpendapat, ini adalah satu medan perang digital di mana kebenaran menjadi mangsa, dan kita semua perlu menjadi askar yang berani mempertahankan integriti maklumat.

1. Strategi Mengesan dan Membendung Deepfake

Mendeteksi *deepfake* kini menjadi satu cabaran besar kerana teknologi penciptaan *deepfake* itu sendiri semakin canggih. Namun begitu, terdapat beberapa kaedah yang boleh kita gunakan sebagai pengguna biasa untuk mengenal pasti video atau audio palsu ini. Pertama, perhatikan ketidakselarasan dalam ekspresi wajah, pergerakan bibir yang tidak sinkron dengan suara, atau pencahayaan yang aneh. Saya sering menggunakan kaedah ini ketika menonton video yang diragui kesahihannya. Kedua, periksa sumber maklumat. Adakah ia datang dari akaun yang sahih atau sumber berita yang boleh dipercayai? Ketiga, cari pengesahan silang daripada pelbagai sumber berita yang bereputasi. Jika sesuatu berita itu terlalu sensasi atau mencurigakan, kebarangkalian ia palsu adalah tinggi.

2. Tanggungjawab Sosial dalam Penyebaran Maklumat

Sebagai pengguna media sosial, kita semua mempunyai peranan penting dalam membendung penyebaran maklumat palsu. Saya rasa, ramai di antara kita yang bersalah kerana terlalu cepat berkongsi sesuatu tanpa menyemak kesahihannya terlebih dahulu. Niat mungkin baik, tetapi kesannya boleh menjadi malapetaka. Sebelum berkongsi, tanyakan pada diri sendiri: “Adakah saya pasti ini benar? Adakah ia dari sumber yang boleh dipercayai?” Sikap bertanggungjawab ini amat penting. Selain itu, platform media sosial juga perlu mengambil langkah yang lebih proaktif, seperti menggunakan AI untuk mengesan dan melabelkan kandungan *deepfake* atau maklumat palsu, serta bekerjasama dengan organisasi semakan fakta. Ini adalah usaha kolektif yang memerlukan kerjasama semua pihak untuk memastikan integriti maklumat dalam ruang digital.

Memperkasa Modal Insan dalam Era Automasi

Apabila kita berbicara tentang automasi dan kecerdasan buatan, ramai yang terus mengaitkannya dengan kehilangan pekerjaan. Memang benar, beberapa jenis pekerjaan rutin mungkin akan digantikan oleh mesin, tetapi saya percaya, ini juga membuka peluang baharu yang lebih menarik dan mencabar. Pengalaman saya sendiri menunjukkan bagaimana teknologi boleh menjadi pemangkin kepada peningkatan kemahiran dan kecekapan. Contohnya, dahulu saya menghabiskan banyak masa melakukan tugas-tugas pentadbiran yang berulang, tetapi kini dengan adanya alat automasi, saya boleh fokus kepada kerja-kerja yang memerlukan pemikiran kritis dan kreativiti. Ini bukan lagi tentang ‘AI vs. Manusia’, tetapi ‘AI + Manusia’. Kita perlu memperkasa modal insan kita dengan kemahiran yang tidak boleh ditiru oleh AI, iaitu kemahiran sosial, emosi, kreativiti, dan pemikiran strategik.

1. Pembangunan Kemahiran Baharu untuk Pekerjaan Masa Depan

Dalam era automasi, kemahiran yang paling dicari adalah yang melengkapi AI, bukan bersaing dengannya. Ini termasuklah kemahiran literasi data, pemikiran reka bentuk (*design thinking*), kemahiran penyelesaian masalah yang kompleks, dan juga kemahiran komunikasi yang berkesan. Saya rasa, setiap individu perlu mengambil inisiatif untuk belajar sepanjang hayat. Ada banyak kursus dalam talian yang boleh kita sertai, ada juga program-program pembangunan kemahiran yang ditawarkan oleh kerajaan atau syarikat swasta. Misalnya, program-program latihan semula (*reskilling*) dan peningkatan kemahiran (*upskilling*) dalam bidang analisis data, pengaturcaraan, dan keselamatan siber adalah sangat relevan. Kita tidak boleh hanya duduk diam dan berharap, tetapi perlu proaktif dalam melengkapkan diri dengan ilmu baharu.

2. Peranan Pendidikan dan Industri

Institusi pendidikan dan industri mempunyai peranan penting dalam membentuk tenaga kerja yang siap menghadapi cabaran automasi. Kurikulum di universiti dan kolej perlu dikemaskini secara berterusan untuk mencerminkan keperluan pasaran kerja. Saya pernah mendengar tentang beberapa universiti tempatan yang kini menawarkan kursus-kursus dalam bidang AI dan sains data, dan ini adalah langkah yang sangat positif. Industri pula perlu bekerjasama rapat dengan institusi pendidikan untuk menyediakan peluang latihan industri dan pendedahan kepada teknologi terkini. Selain itu, syarikat juga harus melabur dalam latihan dan pembangunan pekerja sedia ada, bukan hanya memecat mereka apabila automasi mengambil alih. Dengan cara ini, kita boleh memastikan transisi yang lancar dan semua pihak mendapat manfaat daripada kemajuan teknologi.

Membina Budaya Teknologi Bertanggungjawab

Apabila kita bercakap tentang teknologi, saya rasa bukan sahaja kemajuan dan inovasi yang perlu diberi perhatian, tetapi juga bagaimana kita menggunakan teknologi tersebut secara bertanggungjawab. Membangunkan budaya teknologi yang bertanggungjawab bermula dari peringkat individu hinggalah ke peringkat korporat dan kerajaan. Kita tidak boleh hanya mengejar keuntungan atau kemudahan semata-mata, tanpa mengambil kira impak sosial, etika, dan persekitaran. Misalnya, pengeluar telefon pintar perlu memastikan proses pembuatan peranti mereka tidak menggunakan buruh kanak-kanak atau bahan-bahan yang mencemarkan alam sekitar. Sebagai pengguna, saya rasa kita juga perlu membuat pilihan yang sedar, memilih produk dan perkhidmatan daripada syarikat yang mempunyai rekod etika yang baik. Ia bukan lagi tentang “boleh kita buat?”, tetapi “patutkah kita buat?”

1. Etika dalam Pembangunan AI

Bagi pembangun AI, etika perlu menjadi tunjang utama dalam setiap fasa pembangunan. Ini bermula dari reka bentuk, pengumpulan data, latihan model, sehinggalah kepada pelancaran dan pemantauan. Mereka perlu sentiasa bertanya: “Adakah AI ini adil? Adakah ia selamat? Adakah ia telus? Adakah ia menghormati privasi pengguna?” Proses pembangunan AI yang beretika ini termasuklah memastikan data latihan adalah representatif dan tidak bias, serta mempunyai mekanisme untuk mengesan dan membetulkan kesilapan atau bias yang mungkin wujud. Saya percaya, syarikat-syarikat besar terutamanya, perlu melabur dalam pasukan etika AI yang berdedikasi, terdiri daripada pelbagai latar belakang – bukan hanya jurutera, tetapi juga ahli sosiologi, etika, dan undang-undang – untuk memastikan setiap aspek dipertimbangkan.

2. Peranan Komuniti dan Pendekatan Pelbagai Pihak

Membina budaya teknologi yang bertanggungjawab memerlukan usaha kolektif daripada pelbagai pihak: kerajaan, industri, ahli akademik, masyarakat sivil, dan individu. Kerajaan perlu menggubal dasar dan undang-undang yang relevan dan terkini. Industri perlu mengamalkan tadbir urus korporat yang baik dan mengutamakan etika dalam inovasi. Ahli akademik pula boleh melakukan penyelidikan dan mendidik generasi baharu. Masyarakat sivil boleh menjadi suara rakyat dan memberi tekanan untuk perubahan. Saya rasa, kita semua perlu duduk semeja dan berbincang, berkongsi pandangan dan mencari penyelesaian bersama. Apabila komuniti memainkan peranan aktif dalam perbincangan tentang teknologi, barulah kita boleh memastikan inovasi itu benar-benar memberi manfaat kepada semua dan bukan hanya segelintir pihak.

Inovasi dan Kepercayaan: Keseimbangan yang Wajib Ada

Dalam perlumbaan menuju masa depan yang dipacu teknologi, seringkali kita terlupa bahawa kepercayaan adalah aset yang paling berharga. Tanpa kepercayaan, teknologi secanggih mana pun tidak akan diterima sepenuhnya oleh masyarakat. Saya pernah terfikir, bagaimana jika teknologi yang kita gunakan setiap hari, seperti aplikasi perbankan atau media sosial, tiba-tiba kehilangan kepercayaan pengguna? Kesannya pasti sangat besar. Ini bukan sekadar isu teknikal, tetapi ia melibatkan psikologi manusia, emosi, dan nilai-nilai sosial. Membina dan mengekalkan kepercayaan dalam ekosistem digital yang sentiasa berubah-ubah ini adalah satu cabaran besar, tetapi ia adalah keseimbangan yang wajib ada jika kita mahu inovasi itu kekal mampan dan bermanfaat untuk semua.

1. Membangunkan Sistem AI yang Berorientasikan Manusia

Untuk membina kepercayaan, kita perlu membangunkan sistem AI yang berorientasikan manusia (*human-centric*). Ini bermakna, teknologi harus direka bentuk untuk memperkasakan manusia, bukannya menggantikan mereka atau mengambil alih kawalan. Saya sering melihat syarikat-syarikat yang terlalu fokus pada aspek teknologi semata-mata, tanpa mengambil kira pengalaman pengguna atau impak sosial. Pendekatan *human-centric* ini memerlukan empati dan pemahaman mendalam tentang keperluan, nilai, dan batasan manusia. AI harus berfungsi sebagai alat yang membantu kita mencapai potensi penuh, bukan sebagai entiti yang mengawal kita. Misalnya, sistem AI dalam bidang kesihatan harus membantu doktor membuat diagnosis yang lebih tepat, bukan menggantikan keupayaan doktor untuk berinteraksi dan memahami pesakit secara holistik.

2. Transparensi dan Akauntabiliti sebagai Teras Kepercayaan

Dua tonggak utama dalam membina kepercayaan adalah transparensi (ketelusan) dan akauntabiliti (tanggungjawab). Pengguna perlu faham bagaimana AI berfungsi, data apa yang digunakan, dan mengapa keputusan tertentu dibuat oleh AI. Ini sangat penting terutamanya dalam sistem yang kritikal seperti kewangan atau keadilan. Apabila sesuatu yang tidak diingini berlaku, siapa yang perlu dipertanggungjawabkan? Adakah syarikat yang membangunkan AI, atau pengguna yang menggunakan AI tersebut? Saya rasa, perlu ada kerangka akauntabiliti yang jelas untuk setiap sistem AI yang dibangunkan dan digunakan. Tanpa ketelusan, pengguna akan sentiasa ragu-ragu. Tanpa akauntabiliti, tiada siapa yang akan mengambil tanggungjawab jika berlaku kesilapan. Jadi, saya amat percaya bahawa kedua-dua prinsip ini, ketelusan dan akauntabiliti, adalah asas kepada kepercayaan dalam era digital.

Akhir Kata

Pernahkah kita terfikir, di sebalik kemajuan teknologi yang memukau, di mana letaknya sempadan etika? Sepanjang perbincangan kita, jelaslah bahawa keseimbangan antara inovasi dan nilai kemanusiaan adalah kritikal. Saya percaya, jika kita tidak menitikberatkan aspek privasi, akauntabiliti, dan keadilan dalam pembangunan serta penggunaan AI, kita mungkin akan kehilangan lebih daripada yang kita sangkakan. Masa depan digital yang mampan bergantung kepada kesedaran kolektif kita untuk membina ekosistem yang bukan sahaja pintar, tetapi juga berhati nurani dan bertanggungjawab.

Maklumat Berguna

1.

Sentiasa semak dan sahkan kesahihan sesuatu maklumat atau berita, terutamanya yang disebarkan di media sosial, sebelum anda berkongsi atau mempercayainya.

2.

Fahami tetapan privasi pada aplikasi dan peranti anda. Anda berhak mengawal siapa yang boleh melihat data peribadi anda.

3.

Laporkan sebarang aktiviti siber yang mencurigakan seperti penipuan atau percubaan pancingan data (phishing) kepada pihak berkuasa atau penyedia platform.

4.

Ambil inisiatif untuk meningkatkan literasi digital dan kemahiran teknologi anda. Ini penting untuk kekal relevan dalam pasaran kerja masa depan.

5.

Akta Perlindungan Data Peribadi (PDPA) 2010 di Malaysia memberi anda hak untuk mengetahui bagaimana data peribadi anda digunakan oleh organisasi. Fahami hak anda!

Rumusan Penting

Dalam era digital yang pesat, isu etika AI, privasi data, dan ancaman deepfake adalah cabaran utama. Kita perlu mengutamakan pembangunan teknologi yang adil, telus, dan bertanggungjawab untuk melindungi nilai kemanusiaan. Pendidikan, perundangan, dan kesedaran awam memainkan peranan penting dalam membina budaya teknologi yang mampan dan membina kepercayaan dalam inovasi digital.

Soalan Lazim (FAQ) 📖

S: Dalam era digital ini, apakah kebimbangan terbesar anda berkaitan privasi data peribadi dan bias algoritma?

J: Oh, ini soalan yang sering bermain di fikiran saya! Sejujurnya, apa yang paling merisaukan saya ialah rasa ‘kehilangan kawalan’ terhadap data peribadi kita.
Pernah tak anda rasa seperti ada “seseorang” yang sentiasa tahu apa yang anda sedang cari atau bincangkan? Macam, baru je cakap pasal nak beli air fryer baru dengan kawan, tiba-tiba iklan air fryer dah terpampang kat feed media sosial.
Itu satu hal. Lagi satu, bab bias algoritma ni. Kadang-kadang, saya perasan kandungan yang dipaparkan kepada kita ni dah ‘ditapis’ atau ‘dipilih’ berdasarkan apa yang algoritma fikir kita nak tengok.
Ini boleh jadi bahaya sebab ia mungkin mewujudkan ‘gelembung’ maklumat, di mana kita hanya terdedah kepada pandangan atau berita tertentu sahaja. Sebagai contoh, dalam memilih calon kerja, jika algoritma itu mempunyai bias tersembunyi (mungkin berdasarkan umur, jantina, atau latar belakang tertentu), ia boleh menafikan peluang kepada individu yang layak hanya kerana data yang kurang tepat atau bias.
Saya rasa, ini sangat tidak adil dan boleh menyekat potensi manusia. Pentingnya untuk kita faham macam mana data kita digunakan dan sentiasa berwaspada agar tidak mudah diperdaya.

S: Bagaimana kita boleh memastikan teknologi, khususnya AI, tidak sepenuhnya menggantikan nilai kemanusiaan dan etika profesional kita dalam pekerjaan?

J: Ini topik yang saya selalu bincangkan dengan rakan-rakan sekerja. Saya percaya, jawapan utamanya terletak pada ‘integrasi’, bukan ‘penggantian’. AI memang cekap dalam tugasan berulang dan analisis data yang besar, tapi ada perkara yang AI takkan boleh tiru: kreativiti, empati, pemikiran kritikal yang mendalam, dan keupayaan menyelesaikan masalah yang memerlukan intuisi manusia.
Sebagai contoh, dalam industri perkhidmatan pelanggan, walaupun chatbot boleh menjawab soalan asas, kita masih perlukan manusia untuk mengendalikan aduan yang kompleks atau situasi yang memerlukan belas ihsan.
Saya teringat, dulu pernah ada masalah dengan bil internet, chatbot tak dapat tolong, tapi bila bercakap dengan wakil khidmat pelanggan, masalah selesai dengan cepat sebab dia faham nuansa situasi saya.
Untuk etika, kita perlu tetapkan garis panduan yang jelas dan kukuh untuk penggunaan AI dalam setiap bidang. Institusi pendidikan dan majikan juga perlu melabur dalam melatih pekerja untuk bekerja ‘bersama’ AI, bukan ‘melawan’ AI.
Ini termasuk kemahiran baru seperti memahami bagaimana AI berfungsi dan bagaimana untuk mengendalikan outputnya dengan beretika. Barulah kita dapat mengekalkan ‘sentuhan manusia’ itu.

S: Mengenai trend deepfake dan automasi berlebihan, apakah langkah-langkah praktikal yang boleh diambil oleh individu atau masyarakat untuk mengurangkan kebimbangan serius ini?

J: Wah, ini memang isu yang bikin saya extra hati-hati bila scroll media sosial! Untuk deepfake, saya rasa kuncinya adalah literasi media digital. Kita sebagai pengguna perlu jadi lebih kritis.
Jangan cepat percaya apa yang kita lihat atau dengar, terutamanya jika ia nampak ‘terlalu bagus untuk menjadi kenyataan’ atau ‘terlalu buruk untuk menjadi nyata’.
Saya selalu pesan pada adik-beradik, bila nampak video atau audio yang mencurigakan, cuba cari sumber asal, semak silang dengan berita daripada sumber yang dipercayai.
Kadang-kadang, bila ada berita yang viral sangat, saya akan cuba Google dan cari pengesahan dari sekurang-kurangnya dua tiga sumber berita utama. Kita tak nak nanti kita pula jadi penyebar fitnah tanpa sedar.
Bagi automasi berlebihan pula, ini isu yang lebih besar dan memerlukan pendekatan dua hala. Di peringkat individu, kita kena sentiasa belajar dan tingkatkan kemahiran (reskilling dan upskilling).
Contohnya, kalau dulu kerja saya banyak melibatkan kemasukan data manual, mungkin sekarang saya kena belajar kemahiran analisis data atau pengurusan projek yang mana AI boleh handle tugasan rutin.
Ini menjadikan kita lebih relevan dalam pasaran kerja. Dari sudut masyarakat pula, kerajaan dan pihak industri perlu bekerjasama untuk mewujudkan dasar yang melindungi hak pekerja dan memastikan peralihan ke arah automasi ini dilakukan secara adil dan saksama.
Pendidikan sepanjang hayat ni sangat penting. Kita tak boleh statik, kena sentiasa beradaptasi. Saya rasa, dengan sikap proaktif dan kesedaran kolektif, kita boleh mengurangkan impak negatif trend ini dan memastikan teknologi benar-benar berfungsi untuk kebaikan manusia, bukan sebaliknya.