Kecerdasan Data Generatif

Memanfaatkan model bahasa besar dalam deteksi berita palsu | Layanan Web Amazon

Tanggal:

Berita palsu, yang didefinisikan sebagai berita yang menyampaikan atau memuat informasi palsu, dibuat-buat, atau sengaja menyesatkan, sudah ada sejak munculnya mesin cetak. Pesatnya penyebaran berita palsu dan disinformasi online tidak hanya menipu masyarakat, namun juga dapat berdampak besar pada masyarakat, politik, ekonomi, dan budaya. Contohnya meliputi:

  • Menumbuhkan ketidakpercayaan pada media
  • Merusak proses demokrasi
  • Menyebarkan ilmu pengetahuan palsu atau mendiskreditkan (misalnya gerakan anti-vaksin)

Kemajuan dalam kecerdasan buatan (AI) dan pembelajaran mesin (ML) telah membuat pengembangan alat untuk membuat dan menyebarkan berita palsu menjadi lebih mudah. Contoh awal termasuk bot sosial canggih dan akun otomatis yang mempercepat tahap awal penyebaran berita palsu. Secara umum, tidak mudah bagi masyarakat untuk menentukan apakah akun tersebut adalah orang atau bot. Selain itu, bot sosial bukanlah alat ilegal, dan banyak perusahaan membelinya secara legal sebagai bagian dari strategi pemasaran mereka. Oleh karena itu, tidak mudah untuk mengekang penggunaan bot sosial secara sistematis.

Penemuan terbaru di bidang AI generatif memungkinkan pembuatan konten tekstual dengan kecepatan yang belum pernah terjadi sebelumnya dengan bantuan model bahasa besar (LLM). LLM adalah model teks AI generatif dengan lebih dari 1 miliar parameter, dan difasilitasi dalam sintesis teks berkualitas tinggi.

Dalam postingan ini, kami mengeksplorasi bagaimana Anda dapat menggunakan LLM untuk mengatasi masalah umum dalam mendeteksi berita palsu. Kami menyarankan agar LLM cukup maju untuk tugas ini, terutama jika teknik cepat seperti Rantai Pemikiran dan Reaksi digunakan bersama dengan alat untuk pengambilan informasi.

Kami mengilustrasikannya dengan membuat a LangChain aplikasi yang, jika diberi berita, memberi tahu pengguna apakah artikel tersebut benar atau palsu menggunakan bahasa alami. Solusinya juga menggunakan Batuan Dasar Amazon, layanan terkelola sepenuhnya yang membuat model dasar (FM) dari Amazon dan penyedia model pihak ketiga dapat diakses melalui Konsol Manajemen AWS dan API.

LLM dan berita palsu

Fenomena berita palsu mulai berkembang pesat dengan munculnya internet dan khususnya media sosial (Nielsen et al., 2017). Di media sosial, berita palsu dapat dibagikan dengan cepat di jaringan pengguna, sehingga menyebabkan masyarakat membentuk opini kolektif yang salah. Selain itu, masyarakat sering kali menyebarkan berita palsu secara impulsif, mengabaikan faktualitas konten jika berita tersebut sesuai dengan norma pribadi mereka (Tsipursky dkk. 2018). Penelitian dalam ilmu sosial menunjukkan bahwa bias kognitif (bias konfirmasi, efek ikut-ikutan, dan bias yang mendukung pilihan) adalah salah satu faktor paling penting dalam membuat keputusan yang tidak rasional baik dalam hal pembuatan maupun konsumsi berita palsu (Kim, et al., 2021). Hal ini juga menyiratkan bahwa konsumen berita berbagi dan mengonsumsi informasi hanya untuk memperkuat keyakinan mereka.

Kekuatan AI generatif untuk menghasilkan konten tekstual dan kaya dengan kecepatan yang belum pernah terjadi sebelumnya memperburuk masalah berita palsu. Contoh yang patut disebutkan adalah teknologi deepfake—menggabungkan berbagai gambar pada video asli dan menghasilkan video yang berbeda. Selain maksud disinformasi yang ditimbulkan oleh aktor manusia, LLM juga menghadirkan serangkaian tantangan baru:

  • Kesalahan faktual – LLM memiliki peningkatan risiko mengandung kesalahan faktual karena sifat pelatihan mereka dan kemampuan untuk menjadi kreatif sambil menghasilkan kata-kata berikutnya dalam sebuah kalimat. Pelatihan LLM didasarkan pada penyajian model berulang kali dengan masukan yang tidak lengkap, kemudian menggunakan teknik pelatihan ML hingga mengisi kekosongan dengan benar, sehingga mempelajari struktur bahasa dan model dunia berbasis bahasa. Akibatnya, meskipun LLM adalah pencocokan pola dan penggabung ulang yang hebat (“stochastic parrots”), mereka gagal dalam sejumlah tugas sederhana yang memerlukan penalaran logis atau deduksi matematis, dan dapat membuat jawaban berhalusinasi. Selain itu, suhu merupakan salah satu parameter masukan LLM yang mengontrol perilaku model saat menghasilkan kata berikutnya dalam sebuah kalimat. Dengan memilih suhu yang lebih tinggi, model akan menggunakan kata dengan probabilitas lebih rendah, sehingga memberikan respons yang lebih acak.
  • Panjang – Teks yang dihasilkan cenderung panjang dan tidak memiliki rincian fakta yang jelas.
  • Kurangnya pengecekan fakta – Tidak ada alat standar yang tersedia untuk pengecekan fakta selama proses pembuatan teks.

Secara keseluruhan, kombinasi psikologi manusia dan keterbatasan sistem AI telah menciptakan badai besar bagi penyebaran berita palsu dan misinformasi online.

Ikhtisar solusi

LLM menunjukkan kemampuan luar biasa dalam pembuatan bahasa, pemahaman, dan pembelajaran singkat. Mereka dilatih dengan kumpulan teks yang sangat banyak dari internet, dimana kualitas dan keakuratan bahasa alami yang diekstraksi mungkin tidak terjamin.

Dalam postingan kali ini, kami memberikan solusi untuk mendeteksi berita palsu berdasarkan pendekatan cepat Chain-of-Thought dan Re-Act (Penalaran dan Tindakan). Pertama, kami membahas kedua teknik rekayasa cepat tersebut, lalu kami menunjukkan implementasinya menggunakan LangChain dan Amazon Bedrock.

Diagram arsitektur berikut menguraikan solusi untuk pendeteksi berita palsu kami.

Diagram arsitektur untuk mendeteksi berita palsu.

Kami menggunakan subset dari kumpulan data DEMAM berisi suatu pernyataan dan kebenaran dasar tentang pernyataan tersebut yang menunjukkan klaim yang salah, benar, atau tidak dapat diverifikasi (Thorne J.dkk., 2018).

Alur kerja dapat dipecah menjadi langkah-langkah berikut:

  1. Pengguna memilih salah satu pernyataan untuk memeriksa apakah palsu atau benar.
  2. Pernyataan dan tugas deteksi berita palsu dimasukkan ke dalam prompt.
  3. Perintah tersebut diteruskan ke LangChain, yang memanggil FM di Amazon Bedrock.
  4. Amazon Bedrock mengembalikan respons terhadap permintaan pengguna dengan pernyataan Benar atau Salah.

Pada postingan kali ini, kami menggunakan model Claude v2 dari Anthrophic (anthropic.claude-v2). Claude adalah LLM generatif berdasarkan penelitian Anthropic dalam menciptakan sistem AI yang andal, dapat ditafsirkan, dan dikendalikan. Dibuat menggunakan teknik seperti AI konstitusional dan pelatihan tidak berbahaya, Claude unggul dalam dialog yang bijaksana, pembuatan konten, penalaran kompleks, kreativitas, dan pengkodean. Namun, dengan menggunakan Amazon Bedrock dan arsitektur solusi kami, kami juga memiliki fleksibilitas untuk memilih di antara FM lain yang disediakan oleh Amazon, laboratorium AI21, Bersatu, dan Stabilitas.ai.

Anda dapat menemukan detail penerapannya di bagian berikut. Kode sumber tersedia di repositori GitHub.

Prasyarat

Untuk tutorial ini, Anda memerlukan terminal bash dengan Python 3.9 atau lebih tinggi yang diinstal di Linux, Mac, atau Subsistem Windows untuk Linux dan akun AWS.

Kami juga merekomendasikan menggunakan salah satu Studio Amazon SageMaker buku catatan, sebuah AWS Cloud9 misalnya, atau sebuah Cloud komputasi elastis Amazon (Amazon EC2) contoh.

Terapkan deteksi berita palsu menggunakan Amazon Bedrock API

Solusinya menggunakan Amazon Bedrock API, yang dapat diakses menggunakan Antarmuka Baris Perintah AWS (AWS CLI), itu AWS SDK untuk Python (Boto3), Atau Amazon SageMaker buku catatan. Mengacu kepada Panduan Pengguna Batuan Dasar Amazon untuk informasi lebih lanjut. Untuk postingan ini, kami menggunakan Amazon Bedrock API melalui AWS SDK for Python.

Siapkan lingkungan API Amazon Bedrock

Untuk menyiapkan lingkungan API Amazon Bedrock Anda, selesaikan langkah-langkah berikut:

  1. Unduh Boto3 terbaru atau tingkatkan:
    pip install --upgrade boto3

  2. Pastikan Anda mengonfigurasi kredensial AWS menggunakan aws configure perintahkan atau teruskan ke klien Boto3.
  3. Instal versi terbaru dari LangChain:
    pip install “langchain>=0.0.317” --quiet

Anda sekarang dapat menguji pengaturan Anda menggunakan skrip shell Python berikut. Skrip ini membuat instance klien Amazon Bedrock menggunakan Boto3. Selanjutnya, kita memanggil list_foundation_models API untuk mendapatkan daftar model fondasi yang tersedia untuk digunakan.

import boto3 import json bedrock = boto3.client( 'bedrock', region_name=YOUR_REGION) print(json.dumps(bedrock.list_foundation_models(), indent=4))

Setelah berhasil menjalankan perintah sebelumnya, Anda akan mendapatkan daftar FM dari Amazon Bedrock.

LangChain sebagai solusi rantai yang cepat

Untuk mendeteksi berita palsu pada kalimat tertentu, kami mengikuti proses penalaran Rantai Pemikiran zero-shot (Wei J. dkk., 2022), yang terdiri dari langkah-langkah berikut:

  1. Awalnya, model mencoba membuat pernyataan tentang berita yang diminta.
  2. Model ini membuat daftar pernyataan yang berisi poin-poin.
  3. Untuk setiap pernyataan, model menentukan apakah pernyataan tersebut benar atau salah. Perhatikan bahwa dengan menggunakan metodologi ini, model hanya mengandalkan pengetahuan internalnya (bobot yang dihitung pada fase pra-pelatihan) untuk mencapai keputusan. Informasi tersebut belum diverifikasi berdasarkan data eksternal apa pun pada saat ini.
  4. Berdasarkan fakta yang ada, model akan menjawab TRUE atau FALSE untuk pernyataan yang diberikan di prompt.

Untuk mencapai langkah-langkah ini, kami menggunakan LangChain, sebuah kerangka kerja untuk mengembangkan aplikasi yang didukung oleh model bahasa. Kerangka kerja ini memungkinkan kami untuk meningkatkan FM dengan menyatukan berbagai komponen untuk menciptakan kasus penggunaan tingkat lanjut. Dalam solusi ini, kami menggunakan yang bawaan Rantai Berurutan Sederhana di LangChain untuk membuat rantai berurutan sederhana. Hal ini sangat berguna, karena kita dapat mengambil keluaran dari satu rantai dan menggunakannya sebagai masukan ke rantai lainnya.

Amazon Bedrock terintegrasi dengan LangChain, jadi Anda hanya perlu membuat instance-nya dengan meneruskannya model_id saat membuat instance objek Amazon Bedrock. Jika diperlukan, parameter inferensi model dapat diberikan melalui model_kwargs argumen, seperti:

  • maxTokenCount – Jumlah maksimum token dalam respons yang dihasilkan
  • stopSequences – Urutan berhenti yang digunakan oleh model
  • suhu – Nilai yang berkisar antara 0–1, dengan 0 untuk yang paling deterministik dan 1 untuk yang paling kreatif
  • puncak – Nilai yang berkisar antara 0–1, dan digunakan untuk mengontrol pilihan token berdasarkan probabilitas pilihan potensial

Jika ini pertama kalinya Anda menggunakan model dasar Amazon Bedrock, pastikan Anda meminta akses ke model tersebut dengan memilih dari daftar model di Akses model halaman di konsol Amazon Bedrock, yang dalam kasus kami adalah claude-v2 dari Anthropic.

from langchain.llms.bedrock import Bedrock
bedrock_runtime = boto3.client( service_name='bedrock-runtime', region_name= YOUR_REGION,
)
model_kwargs={ 'max_tokens_to_sample': 8192 }
llm = Bedrock(model_id=" anthropic.claude-v2", client=bedrock_runtime, model_kwargs=model_kwargs)

Fungsi berikut mendefinisikan rantai prompt Rantai Pemikiran yang kami sebutkan sebelumnya untuk mendeteksi berita palsu. Fungsi ini menggunakan objek Amazon Bedrock (llm) dan perintah pengguna (q) sebagai argumen. LangChain Templat Prompt fungsionalitas digunakan di sini untuk menentukan resep untuk menghasilkan prompt.

from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
from langchain.chains import SimpleSequentialChain def generate_and_print(llm, q): total_prompt = """""" # the model is asked to create a bullet point list of assertions template = """Here is a statement: {statement} Make a bullet point list of the assumptions you made when given the above statement.nn""" prompt_template = PromptTemplate(input_variables=["statement"], template=template) assumptions_chain = LLMChain(llm=llm, prompt=prompt_template) total_prompt = total_prompt + template # the model is asked to create a bullet point list of assertions template = """Here is a bullet point list of assertions: {assertions} For each assertion, determine whether it is true or false. If it is false, explain why.nn""" prompt_template = PromptTemplate(input_variables=["assertions"], template=template) fact_checker_chain = LLMChain(llm=llm, prompt=prompt_template) total_prompt = total_prompt + template #for each assertion, the model is askded to determine if the assertion is true or false, based on internal knowledge alone template = """ Based on the above assertions, the final response is FALSE if one of the assertions is FALSE. Otherwise, the final response is TRUE. You should only respond with TRUE or FALSE.'{}'""".format(q) template = """{facts}n""" + template prompt_template = PromptTemplate(input_variables=["facts"], template=template) answer_chain = LLMChain(llm=llm, prompt=prompt_template) total_prompt = total_prompt + template #SimpleSequentialChain allows us to take the output from one chain and use it as the input to another overall_chain = SimpleSequentialChain(chains=[assumptions_chain, fact_checker_chain, answer_chain], verbose=True) answer = overall_chain.run(q) return answer

Kode berikut memanggil fungsi yang kita definisikan sebelumnya dan memberikan jawabannya. Pernyataannya adalah TRUE or FALSE. TRUE berarti pernyataan yang diberikan memuat fakta yang benar, dan FALSE berarti pernyataan tersebut mengandung paling sedikit satu fakta yang salah.

from IPython.display import display, Markdown q="The first woman to receive a Ph.D. in computer science was Dr. Barbara Liskov, who earned her degree from Stanford University in 1968."
print(f'The statement is: {q}')
display(Markdown(generate_and_print(llm, q)))

Contoh pernyataan dan respon model diberikan dalam output berikut:

The statement is: The first woman to receive a Ph.D. in computer science was Dr. Barbara Liskov, who earned her degree from Stanford University in 1968. > Entering new SimpleSequentialChain chain... Here is a bullet point list of assumptions I made about the statement: - Dr. Barbara Liskov was the first woman to earn a Ph.D. in computer science. - Dr. Liskov earned her Ph.D. from Stanford University. - She earned her Ph.D. in 1968. - No other woman earned a Ph.D. in computer science prior to 1968. - Stanford University had a computer science Ph.D. program in 1968. - The statement refers to Ph.D. degrees earned in the United States. Here are my assessments of each assertion: - Dr. Barbara Liskov was the first woman to earn a Ph.D. in computer science. - True. Dr. Liskov was the first American woman to earn a Ph.D. in computer science, which she received from Stanford University in 1968. - Dr. Liskov earned her Ph.D. from Stanford University. - True. Multiple sources confirm she received her Ph.D. from Stanford in 1968. - She earned her Ph.D. in 1968. - True. This is consistent across sources. - No other woman earned a Ph.D. in computer science prior to 1968. - False. While she was the first American woman, Mary Kenneth Keller earned a Ph.D. in computer science from the University of Wisconsin in 1965. However, Keller earned her degree in the US as well. - Stanford University had a computer science Ph.D. program in 1968. - True. Stanford established its computer science department and Ph.D. program in 1965. - The statement refers to Ph.D. degrees earned in the United States. - False. The original statement does not specify the country. My assumptions that it refers to the United States is incorrect. Keller earned her Ph.D. in the US before Liskov. False

Bereaksi dan alat

Pada contoh sebelumnya, model dengan tepat mengidentifikasi bahwa pernyataan tersebut salah. Namun, mengirimkan kueri kembali menunjukkan ketidakmampuan model untuk membedakan kebenaran fakta. Model tidak memiliki alat untuk memverifikasi kebenaran pernyataan di luar memori pelatihannya sendiri, sehingga proses berikutnya dari perintah yang sama dapat menyebabkan model salah memberi label pada pernyataan palsu sebagai benar. Dalam kode berikut, Anda menjalankan contoh yang sama secara berbeda:

The statement is: The first woman to receive a Ph.D. in computer science was Dr. Barbara Liskov, who earned her degree from Stanford University in 1968. > Entering new SimpleSequentialChain chain... Here is a bullet point list of assumptions I made about the statement: - Dr. Barbara Liskov was the first woman to earn a Ph.D. in computer science
- Dr. Liskov earned her Ph.D. degree in 1968 - Dr. Liskov earned her Ph.D. from Stanford University
- Stanford University awarded Ph.D. degrees in computer science in 1968
- Dr. Liskov was a woman
- Ph.D. degrees existed in 1968
- Computer science existed as a field of study in 1968 Here are my assessments of each assertion: - Dr. Barbara Liskov was the first woman to earn a Ph.D. in computer science - True. Dr. Liskov was the first woman to earn a Ph.D. in computer science in 1968 from Stanford University. - Dr. Liskov earned her Ph.D. degree in 1968 - True. Multiple sources confirm she received her Ph.D. in computer science from Stanford in 1968. - Dr. Liskov earned her Ph.D. from Stanford University - True. Dr. Liskov earned her Ph.D. in computer science from Stanford University in 1968. - Stanford University awarded Ph.D. degrees in computer science in 1968 - True. Stanford awarded Liskov a Ph.D. in computer science in 1968, so they offered the degree at that time. - Dr. Liskov was a woman - True. All biographical information indicates Dr. Liskov is female. - Ph.D. degrees existed in 1968 - True. Ph.D. degrees have existed since the late 19th century. - Computer science existed as a field of study in 1968 - True. While computer science was a relatively new field in the 1960s, Stanford and other universities offered it as a field of study and research by 1968. True

Salah satu teknik untuk menjamin kebenaran adalah ReAct. Reaksi (Yao S.dkk., 2023) adalah teknik cepat yang menambah model fondasi dengan ruang tindakan agen. Dalam postingan ini, serta dalam makalah ReAct, ruang tindakan mengimplementasikan pengambilan informasi menggunakan tindakan pencarian, pencarian, dan penyelesaian dari API web Wikipedia sederhana.

Alasan di balik penggunaan ReAct dibandingkan dengan Chain-of-Thought adalah menggunakan pengambilan pengetahuan eksternal untuk menambah model dasar guna mendeteksi apakah suatu berita tertentu palsu atau benar.

Dalam postingan ini, kami menggunakan implementasi ReAct LangChain melalui agen NOL_SHOT_REACT_DESCRIPTION. Kami memodifikasi fungsi sebelumnya untuk mengimplementasikan ReAct dan menggunakan Wikipedia dengan menggunakan fungsi load_tools dari langchain.agents.

Kita juga perlu menginstal paket Wikipedia:

!pip install Wikipedia

Di bawah ini adalah kode baru:

from langchain.agents import load_tools, initialize_agent, AgentType def generate_and_print(llm, q): print(f'Inside generate_and_print: q = {q}') tools = load_tools(["wikipedia"], llm=llm) agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True, handle_parsing_errors=True, agent_kwargs={}) input = """Here is a statement: {statement} Is this statement correct? You can use tools to find information if needed. The final response is FALSE if the statement is FALSE. Otherwise, TRUE.""" answer = agent.run(input.format(statement=q)) return answer

Berikut ini adalah output dari fungsi sebelumnya dengan pernyataan yang sama yang digunakan sebelumnya:

> Entering new AgentExecutor chain... Here are my thoughts and actions to determine if the statement is true or false: Thought: To verify if this statement about the first woman to receive a PhD in computer science is true, I should consult a reliable information source like Wikipedia. Action: Wikipedia
Action Input: first woman to receive phd in computer science
Observation: Page: Fu Foundation School of Engineering and Applied Science
Summary: The Fu Foundation School of Engineering and Applied Science (popularly known as SEAS or Columbia Engineering; previously known as Columbia School of Mines) is the engineering and applied science school of Columbia University. It was founded as the School of Mines in 1863 and then the School of Mines, Engineering and Chemistry before becoming the School of Engineering and Applied Science. On October 1, 1997, the school was renamed in honor of Chinese businessman Z.Y. Fu, who had donated $26 million to the school.
The Fu Foundation School of Engineering and Applied Science maintains a close research tie with other institutions including NASA, IBM, MIT, and The Earth Institute. Patents owned by the school generate over $100 million annually for the university. SEAS faculty and alumni are responsible for technological achievements including the developments of FM radio and the maser.
The School's applied mathematics, biomedical engineering, computer science and the financial engineering program in operations research are very famous and highly ranked. The current SEAS faculty include 27 members of the National Academy of Engineering and one Nobel laureate. In all, the faculty and alumni of Columbia Engineering have won 10 Nobel Prizes in physics, chemistry, medicine, and economics.
The school consists of approximately 300 undergraduates in each graduating class and maintains close links with its undergraduate liberal arts sister school Columbia College which shares housing with SEAS students. The School's current dean is Shih-Fu Chang, who was appointed in 2022. Page: Doctor of Science
Summary: A Doctor of Science (Latin: Scientiae Doctor; most commonly abbreviated DSc or ScD) is an academic research doctorate awarded in a number of countries throughout the world. In some countries, a Doctor of Science is the degree used for the standard doctorate in the sciences; elsewhere a Doctor of Science is a "higher doctorate" awarded in recognition of a substantial and sustained contribution to scientific knowledge beyond that required for a Doctor of Philosophy (PhD). Page: Timeline of women in science
Summary: This is a timeline of women in science, spanning from ancient history up to the 21st century. While the timeline primarily focuses on women involved with natural sciences such as astronomy, biology, chemistry and physics, it also includes women from the social sciences (e.g. sociology, psychology) and the formal sciences (e.g. mathematics, computer science), as well as notable science educators and medical scientists. The chronological events listed in the timeline relate to both scientific achievements and gender equality within the sciences.
Thought: Based on the Wikipedia pages, the statement appears to be false. The Wikipedia Timeline of Women in Science page indicates that Adele Goldstine was the first woman to earn a PhD in computer science in 1964 from the University of Michigan, not Barbara Liskov from Stanford in 1968. Therefore, my final answer is: Final Answer: FALSE

Membersihkan

Untuk menghemat biaya, hapus semua sumber daya yang Anda sebarkan sebagai bagian dari tutorial. Jika Anda meluncurkan AWS Cloud9 atau instans EC2, Anda dapat menghapusnya melalui konsol atau menggunakan AWS CLI. Demikian pula, Anda dapat menghapus buku catatan SageMaker yang mungkin Anda buat melalui konsol SageMaker.

Keterbatasan dan pekerjaan terkait

Bidang pendeteksian berita palsu sedang diteliti secara aktif di komunitas ilmiah. Pada postingan kali ini, kami menggunakan teknik Chain-of-Thought dan ReAct dan dalam mengevaluasi teknik tersebut, kami hanya fokus pada keakuratan klasifikasi teknik prompt (jika pernyataan yang diberikan benar atau salah). Oleh karena itu, kami belum mempertimbangkan aspek penting lainnya seperti kecepatan respons, atau memperluas solusi ke sumber basis pengetahuan tambahan selain Wikipedia.

Meskipun postingan ini berfokus pada dua teknik, Chain-of-Thought dan ReAct, banyak penelitian yang mengeksplorasi bagaimana LLM dapat mendeteksi, menghilangkan, atau mengurangi berita palsu. Lee et al. telah mengusulkan penggunaan model encoder-decoder menggunakan NER (pengenalan entitas bernama) untuk menutupi entitas bernama guna memastikan bahwa token yang disamarkan benar-benar menggunakan pengetahuan yang dikodekan dalam model bahasa. Chern dkk. mengembangkan FacTool, yang menggunakan prinsip-prinsip Chain-of-Thought untuk mengekstraksi klaim dari prompt, dan akibatnya mengumpulkan bukti-bukti yang relevan dari klaim tersebut. LLM kemudian menilai faktualitas klaim berdasarkan daftar bukti yang diambil. Du E. dkk. menyajikan pendekatan yang saling melengkapi di mana beberapa LLM mengusulkan dan memperdebatkan tanggapan masing-masing dan proses penalaran dalam beberapa putaran untuk sampai pada jawaban akhir yang sama.

Berdasarkan literatur, kami melihat bahwa efektivitas LLM dalam mendeteksi berita palsu meningkat ketika LLM ditambah dengan pengetahuan eksternal dan kemampuan percakapan multi-agen. Namun, pendekatan ini lebih kompleks secara komputasi karena memerlukan beberapa panggilan model dan interaksi, permintaan yang lebih lama, dan panggilan lapisan jaringan yang panjang. Pada akhirnya, kompleksitas ini menyebabkan peningkatan biaya secara keseluruhan. Kami merekomendasikan untuk menilai rasio biaya terhadap kinerja sebelum menerapkan solusi serupa dalam produksi.

Kesimpulan

Dalam postingan ini, kami mempelajari cara menggunakan LLM untuk mengatasi masalah berita palsu yang umum terjadi, yang merupakan salah satu tantangan utama masyarakat kita saat ini. Kami memulai dengan menguraikan tantangan yang ditimbulkan oleh berita palsu, dengan penekanan pada potensinya mempengaruhi sentimen publik dan menyebabkan gangguan sosial.

Kami kemudian memperkenalkan konsep LLM sebagai model AI tingkat lanjut yang dilatih pada sejumlah besar data. Berkat pelatihan ekstensif ini, model-model ini memiliki pemahaman bahasa yang mengesankan, sehingga memungkinkan mereka menghasilkan teks mirip manusia. Dengan kapasitas ini, kami menunjukkan bagaimana LLM dapat dimanfaatkan dalam perang melawan berita palsu dengan menggunakan dua teknik cepat yang berbeda, Chain-of-Thought dan ReAct.

Kami menggarisbawahi bagaimana LLM dapat memfasilitasi layanan pengecekan fakta dalam skala yang tak tertandingi, mengingat kemampuan mereka untuk memproses dan menganalisis teks dalam jumlah besar dengan cepat. Potensi analisis real-time ini dapat mengarah pada deteksi dini dan pembendungan berita palsu. Kami mengilustrasikannya dengan membuat skrip Python yang, dengan memberikan pernyataan, menyoroti kepada pengguna apakah artikel tersebut benar atau palsu menggunakan bahasa alami.

Kami menyimpulkan dengan menggarisbawahi keterbatasan pendekatan yang ada saat ini dan mengakhirinya dengan catatan penuh harapan, menekankan bahwa, dengan perlindungan yang benar dan peningkatan yang berkelanjutan, LLM dapat menjadi alat yang sangat diperlukan dalam memerangi berita palsu.

Kami ingin mendengar pendapat Anda. Beri tahu kami pendapat Anda di bagian komentar, atau gunakan forum isu di repositori GitHub.

Penafian: Kode yang disediakan dalam postingan ini dimaksudkan untuk tujuan pendidikan dan eksperimen saja. Teknologi ini tidak boleh diandalkan untuk mendeteksi berita palsu atau misinformasi dalam sistem produksi di dunia nyata. Tidak ada jaminan mengenai keakuratan atau kelengkapan pendeteksian berita palsu menggunakan kode ini. Pengguna harus berhati-hati dan melakukan uji tuntas sebelum menggunakan teknik ini dalam aplikasi sensitif.

Untuk memulai Amazon Bedrock, kunjungi Konsol Amazon Bedrock.


Tentang penulis

Anamari Todor adalah Arsitek Solusi Utama yang berbasis di Kopenhagen, Denmark. Dia melihat komputer pertamanya ketika dia berusia 4 tahun dan tidak pernah melepaskan ilmu komputer, video game, dan teknik sejak saat itu. Dia telah bekerja di berbagai peran teknis, mulai dari pekerja lepas, pengembang full-stack, hingga insinyur data, pemimpin teknis, dan CTO, di berbagai perusahaan di Denmark, dengan fokus pada industri game dan periklanan. Dia telah bekerja di AWS selama lebih dari 3 tahun, bekerja sebagai Arsitek Solusi Utama, dengan fokus utama pada ilmu kehidupan dan AI/ML. Anamaria memiliki gelar sarjana di bidang Teknik Terapan dan Ilmu Komputer, gelar master di bidang Ilmu Komputer, dan pengalaman AWS lebih dari 10 tahun. Ketika dia tidak bekerja atau bermain video game, dia melatih anak perempuan dan profesional perempuan dalam memahami dan menemukan jalan mereka melalui teknologi.

Marcel Castro adalah Arsitek Solusi Senior yang berbasis di Oslo, Norwegia. Dalam perannya, Marcel membantu pelanggan dengan arsitektur, desain, dan pengembangan infrastruktur yang dioptimalkan untuk cloud. Dia adalah anggota tim AWS Generative AI Ambassador dengan tujuan mendorong dan mendukung pelanggan EMEA dalam perjalanan AI generatif mereka. Beliau meraih gelar PhD di bidang Ilmu Komputer dari Swedia dan gelar master dan sarjana di bidang Teknik Elektro dan Telekomunikasi dari Brazil.

tempat_img

Intelijen Terbaru

tempat_img