Jurnalistika
Loading...

OpenAI Luncurkan GPT-4o, Ini Sederet Perbedaan dengan Versi Sebelumnya

  • Arief Rahman

    16 Mei 2024 | 16:08 WIB

    Bagikan:

image

Ilustrasi OpenAI ChatGPT-4o. (Dok. Ist)

jurnalastika.id – Perusahaan riset dan penerapan kecerdasan buatan OpenAI mengumumkan inovasi terbaru mereka berupa model bahasa AI yang disebut GPT-4o. Chatbot versi ini memiliki kemampuan berbeda dari versi sebelumnya.

OpenAI mengungkapkan lewat situs resminya yang dikutip pada Kamis (16/5/2924), GPT-4o memiliki tingkat kecerdasan lebih yang bisa dimanfaatkan semua pengguna. Terdapat juga perubahan penting pada antarmuka yang ramah konsumen.

Apa Perbedaan ChatGPT-4o dengan Versi Sebelumnya?

Diketahui, saat ini OpenAI memiliki dua versi Chatbot untuk layanan desktop. Pertama ChatGPT-3.5 yang bisa digunakan secara gratis, dan ChatGPT-4 berbayar 20 dolar per bulan, 

Singkatnya, GPT-4 jauh lebih pintar daripada GPT-3.5. GPT-4 bisa memahami lebih banyak nuansa, menghasilkan hasil yang lebih akurat, dan jauh lebih sedikit mengalami halusinasi AI. 

Baca juga: Bos ChatGPT Bongkar Ancaman AI Akan Hilangkan Banyak Pekerjaan di Masa Depan

Meski begitu, GPT-3.5 masih relevan karena cepat, tersedia secara gratis, dan masih bisa menangani sebagian besar tugas sehari-hari dengan mudah. Namun, perlu disadari bahwa GPT-3.5 lebih mungkin memberikan informasi yang salah.

Sementara kata kunci besar dengan GPT-4o adalah “multimodal”. Artinyab GPT-4o bisa beroperasi dengan audio, gambar, video, dan teks. Meskipun GPT-4 juga bisa, tapi berbeda dari segi cara kerjanya.

OpenAI mengatakan bahwa mereka melatih satu jaringan saraf untuk semua modalitas sekaligus. Dengan GPT-4 Turbo, saat menggunakan mode suara, satu model akan mengonversi kata-kata yang diucapkan menjadi teks, kemudian GPT-4 akan menginterpretasikan dan merespons teks tersebut, yang kemudian dikonversi kembali menjadi suara sintetis AI.

Dengan GPT-4o, semua itu dilakukan oleh satu model, yang berdampak besar pada kinerja dan kemampuannya. OpenAI mengklaim waktu respons saat berbicara dengan GPT-4o kini hanya beberapa ratus milidetik, hampir sama dengan percakapan real-time dengan manusia. 

Bandingkan dengan 3-5 detik yang dibutuhkan model lama untuk merespons, ini merupakan lompatan besar. Selain lebih cepat, GPT-4o kini juga bisa menginterpretasikan elemen non verbal dari ucapan.

Seperti nada suara, dan responsnya sekarang memiliki rentang emosional. Bahkan bisa menyanyi, dengan kata lain, OpenAI telah memberikan GPT-4o kemampuan komputasi afektif.

Namun, hingga saat ini, belum semua fitur ini tersedia untuk publik, tetapi OpenAI menyatakan akan meluncurkannya dalam beberapa minggu setelah pengumuman dan peluncuran model inti.

Baca berita Jurnalistika lainnya di Google News, klik di sini

Chatbot AI

chatgpt

ChatGPT-4o

openAi


Populer

Potret Lautan Massa Aksi Penuhi Jalanan Depan Gedung Parlemen
Tentang Kami
Karir
Kebijakan Privasi
Pedoman Media Siber
Kontak Kami