Berita
Mengapa Sistem Rag Foundation Gagal: Google memberikan solusi “konteks yang cukup”

Bergabunglah dengan buletin harian dan mingguan untuk mendapatkan pembaruan terbaru dan konten eksklusif untuk meliput kecerdasan buatan terkemuka di industri ini. Pelajari lebih lanjut
A Studi baru dari Google Para peneliti menawarkan “konteks yang cukup”, perspektif baru untuk memahami dan meningkatkan rejimen kain dalam model bahasa besar (LLM).
Pendekatan ini memungkinkan untuk menentukan apakah LLM memiliki informasi yang cukup untuk menjawab permintaan secara akurat, yang merupakan faktor penentu bagi pengembang yang membangun aplikasi lembaga di dunia nyata di mana keandalan dan kesehatan nyata sangat penting.
Tantangan berkelanjutan untuk karya tersebut
Rag telah menjadi landasan untuk membangun lebih banyak aplikasi AI dan dapat diverifikasi. Namun, sistem ini dapat menunjukkan fitur yang tidak diinginkan. Mereka dapat memberikan jawaban yang salah bahkan ketika mereka disajikan dengan bukti yang dipulihkan, atau mengalihkan perhatian mereka dari informasi yang tidak terkait dalam konteks, atau gagal mendapatkan jawaban dari kutipan teks panjang dengan benar.
Para peneliti menyebutkan dalam makalah mereka, “Hasil yang ideal adalah bahwa LLM mengeluarkan jawaban yang benar jika konteks yang diberikan berisi informasi yang cukup untuk menjawab pertanyaan ketika menggabungkannya dengan pengetahuan perbatasan model. Kalau tidak, model harus menahan diri dari menjawab dan/atau meminta informasi lebih lanjut.”
Mencapai skenario yang sempurna ini membutuhkan model bangunan yang dapat menentukan apakah konteks yang disajikan dapat membantu dalam menjawab pertanyaan yang benar dan menggunakannya secara selektif. Upaya sebelumnya untuk mengobati ini telah mempelajari bagaimana LLMS berperilaku dalam berbagai tingkat informasi. Namun, kertas Google berpendapat bahwa “meskipun tujuannya adalah untuk memahami bagaimana LLMS berperilaku ketika mereka melakukan atau tidak memiliki informasi yang cukup untuk menjawab kueri, pekerjaan sebelumnya gagal untuk membahas tatap muka ini.”
Konteks yang memadai
Untuk mengatasi hal ini, para peneliti memberikan konsep “konteks yang memadai”. Pada tingkat tinggi, mitra input diklasifikasikan berdasarkan apakah konteks yang diberikan berisi informasi yang cukup untuk menjawab kueri. Ini membagi konteks menjadi dua kasus:
Konteks yang memadaiKonteksnya berisi semua informasi yang diperlukan untuk memberikan jawaban akhir.
Tidak memadai: Konteksnya tidak memiliki informasi yang diperlukan. Ini mungkin karena kueri membutuhkan pengetahuan khusus yang tidak ada dalam konteks, atau bahwa informasinya tidak lengkap, tidak menentukan atau kontradiktif.
Penunjukan ini ditentukan dengan melihat pertanyaan dan konteks terkait tanpa perlu menjawab perawatan darat. Ini sangat penting untuk aplikasi yang realistis, karena jawaban atas kebenaran bumi tidak mudah tersedia selama menyimpulkan.
Para peneliti mengembangkan “awtrat” berdasarkan LLM untuk mengotomatisasi tanda -tanda kasus sebagai konteks yang cukup atau tidak memadai. Mereka menemukan bahwa model Google Gemini 1.5 Pro, dengan satu contoh (satu tembakan), lebih baik dalam klasifikasi konteks, dan mencapai tingkat tinggi F1 dan akurasi.
Makalah, “Dalam skenario dunia nyata, kita tidak dapat mengharapkan kandidat menjawab ketika menilai kinerja model. Oleh karena itu, disarankan untuk menggunakan metode yang berfungsi menggunakan kueri dan konteks saja.”
Hasil utama pada perilaku LLM dengan kain
Analisis model yang berbeda dan kelompok data melalui lensa konteks yang cukup tentang banyak ide penting.
Seperti yang diharapkan, model umumnya mencapai akurasi yang lebih tinggi ketika konteksnya cukup. Namun, bahkan dengan konteks yang cukup, model cenderung lebih dari abstain dari pantang. Ketika konteksnya tidak cukup, situasinya menjadi lebih rumit, karena model menunjukkan tingkat pantang tertinggi, dalam beberapa model, meningkatkan halusinasi.
Menariknya, meskipun RAG umumnya meningkatkan kinerja umum, konteks tambahan juga dapat mengurangi kemampuan model untuk menahan diri dari menjawab ketika ia tidak memiliki informasi yang cukup. “Fenomena ini dapat muncul dari meningkatnya kepercayaan model di hadapan informasi kontekstual apa pun, yang mengarah pada peningkatan kecenderungan halusinasi alih -alih menahan diri dari pemungutan suara,” saran para peneliti.
Terutama pengamatan yang aneh adalah kemampuan model kadang -kadang untuk memberikan jawaban yang benar bahkan ketika konteks yang diberikan tidak cukup. Sementara asumsi alami adalah bahwa model “sudah tahu” jawaban dari pelatihan sebelum pelatihan (pengetahuan parameter), para peneliti telah menemukan faktor kontribusi lainnya. Misalnya, konteksnya dapat membantu menghilangkan misteri pada penyelidikan atau jembatan dalam mengetahui model, bahkan jika itu tidak memiliki jawaban penuh. Ini adalah kemampuan untuk berhasil terkadang bahkan dengan informasi eksternal yang terbatas memiliki efek yang lebih luas dari desain sistem RAG.

Cyrus Rashtchian, rekan penulis studi dan ilmuwan riset senior di Google, menjelaskan, menekankan bahwa kualitas LLM dasar masih penting. “Untuk sistem -Rag yang sangat bagus, model harus dievaluasi berdasarkan standar dengan dan tanpa pengambilan,” katanya kepada VentureBeat. Dia menyarankan bahwa pengambilan harus dianggap “peningkatan pengetahuannya”, bukan satu -satunya sumber kebenaran. Dia menjelaskan bahwa model dasar “masih perlu mengisi kesenjangan, atau menggunakan bukti konteks (yang diinformasikan oleh pra -pelatihan) untuk menyebabkan konteks yang telah dipulihkan dengan benar.
Mengurangi halusinasi dalam sistem rakit
Mengingat bahwa model dapat bersorak alih -alih menahan diri dari mereka, terutama dengan kain dibandingkan dengan kurangnya kain, para peneliti mengeksplorasi teknik untuk mengurangi ini.
Mereka telah mengembangkan kerangka kerja “generasi selektif” yang baru. Metode ini menggunakan “model intervensi” yang lebih kecil untuk menentukan apakah LLM utama harus membuat jawaban atau menahannya, memberikan perbandingan terkontrol antara akurasi dan cakupan (persentase jawaban yang telah dijawab).
Bingkai ini dapat dikombinasikan dengan LLM apa pun, termasuk model kepemilikan seperti Gueini dan GPT. Studi ini menemukan bahwa penggunaan konteks yang cukup sebagai sinyal tambahan dalam konteks ini mengarah pada akurasi yang jauh lebih tinggi untuk informasi yang dijawab melalui berbagai model dan kelompok data. Metode ini meningkatkan jawaban yang benar antara respons model sebesar 2-10 % untuk model Gemini, GPT dan GEMMA.
Untuk menempatkan peningkatan 2-10 % ini dalam perspektif kerja, Rashtchian menawarkan contoh konkret dari Dukungan Pelanggan AI. “Anda bisa membayangkan klien yang menanyakan apakah mereka bisa mendapatkan diskon,” katanya. “Dalam beberapa kasus, konteks yang baru pulih dan menggambarkan secara khusus penawaran promosi berkelanjutan, sehingga model dapat menjawab dengan percaya diri. Tetapi dalam kasus lain, konteksnya mungkin” tidak berarti “, menggambarkan diskon dari beberapa bulan, atau mungkin memiliki kondisi dan ketentuan spesifik.
Tim juga menyelidiki model penyempurnaannya untuk mendorong menahan diri dari abstain. Ini termasuk contoh pelatihan tentang contoh -contoh yang digantikan oleh “Saya tidak tahu” alih -alih kebenaran duniawi asli, terutama untuk kasus -kasus yang memiliki konteks yang tidak memadai. Intuisi adalah bahwa pelatihan eksplisit pada contoh -contoh tersebut dapat mengarahkan model untuk menahan diri dari halusinasi alih -alih halusinasi.
Hasilnya beragam: model yang sering disita sering kali merupakan tingkat tertinggi dari jawaban yang benar tetapi sering nyata, dan sering diperpanjang. Makalah ini menyimpulkan bahwa meskipun kontrol yang tepat dapat membantu, “lebih banyak pekerjaan diperlukan untuk mengembangkan strategi yang dapat diandalkan yang dapat menyeimbangkan tujuan ini.”
Aplikasi konteks yang memadai untuk sistem Rags Dunia Nyata
Untuk tim lembaga yang ingin menerapkan ide -ide ini pada sistem kain mereka, seperti yang mengoperasikan aturan pengetahuan internal atau dukungan pelanggan, Rashtchian menentukan pendekatan praktis. Pertama, disarankan mengumpulkan kumpulan data dari pasangan konteks pertanyaan, yang mewakili jenis contoh yang akan dilihat model dalam produksi. Selanjutnya, gunakan air berbasis diri LLM untuk menyebutkan setiap contoh sebagai konteks yang cukup atau tidak mencukupi.
“Ini sudah akan memberikan perkiraan yang baik tentang konteks yang cukup.” “Jika kurang dari 80-90 %, ada kemungkinan bahwa ada banyak ruang untuk meningkatkan sisi dasar pengambilan atau pengetahuan tentang hal-hal-ini adalah penawaran yang baik yang dapat diamati.”
Rashtchian merekomendasikan perbedaan “tanggapan kelas berdasarkan contoh dengan konteks yang cukup terhadap konteks yang tidak mencukupi.” Dengan memeriksa skala pada data terpisah ini, tim dapat lebih memahami nuansa kinerja.
“Misalnya, kami melihat bahwa model lebih mungkin memberikan respons yang salah (mengenai kebenaran dasar) ketika mereka diberi konteks yang tidak mencukupi. Ini adalah salah satu gejala lain yang dapat diamati, menambahkan bahwa” mengumpulkan statistik pada set data lengkap dapat bersinar pada serangkaian kecil pertanyaan penting yang telah diproses dengan buruk. “”
Sementara LLM sangat akurat, lembaga lembaga mungkin bertanya -tanya tentang biaya komputer tambahan. Rashtchian menjelaskan bahwa biaya umum dapat dikelola untuk tujuan diagnostik.
Dia berkata: “Saya ingin mengatakan bahwa pengoperasian air otomatis berbasis LLM pada set uji kecil (misalnya 500-1000 contoh) harus relatif tidak ada yang tidak penting, dan ini dapat dilakukan” tanpa kontak “, jadi tidak ada kekhawatiran tentang jumlah waktu yang dibutuhkan. Untuk aplikasi yang sebenarnya,” aku akan lebih kecil. ” “Insinyur harus melihat sesuatu yang melebihi tingkat kesamaan, dll., Dari komponen pemulihan mereka. Sinyal tambahan, dari LLM atau panduan, dapat menyebabkan visi baru. “
Tautan sumber
Berita
Apa itu di dalam ginsbark? Pendekatan kerja baru yang memberikan alur kerja yang kaku untuk faktor independen

Agen Genspark membuktikan bahwa lebih sedikit kontrol atas jalannya pekerjaan yang kaku, memaksa para pemimpin AI yayasan untuk memikirkan kembali
Tautan sumber
Berita
Trump bertemu dengan para pemimpin NATO setelah kebiasaan “pekerjaannya di Iran”

baruAnda sekarang dapat mendengarkan Fox News!
presiden Donald Trump Dijadwalkan untuk naik panggung utama pada hari kedua KTT NATO di Den Haag, Belanda – yang memberikan nada ramah yang luar biasa terhadap koalisi yang telah lama mengkritiknya.
Presiden dijadwalkan untuk bertemu dengan Sekretaris NATO -General Mark Root dan para pemimpin dunia lainnya sebelum konferensi pers.
Trump juga mengatakan bahwa ia akan memberi hormat kepada Presiden Ukraina Folodimir Zellinski, yang menghadiri KTT di tengah dorongan terus -menerus ke Ukraina Bergabunglah dengan NATO.
Dalam pesan teks Trump, roti memberi selamat kepadanya tentang “membuat Eropa membayar sangat” melalui tujuan pengeluaran pertahanan baru sebesar 5 % – dan pada mediasi dalam konflik baru -baru ini antara Israel dan Iran.
Trump pergi ke KTT NATO, di mana para pemimpin dunia akan mencapai kesepakatan untuk meningkatkan pengeluaran defensif mereka hingga 5 % dari PDB. (Gambar Andrew Harnik/Getty)
“Selamat dan terima kasih atas pekerjaan Anda yang menentukan di Iran. Itu benar -benar tidak biasa, dan sesuatu yang tidak ada yang berani lakukan,” tulis Root, sementara Trump terbang menuju puncak. “Semuanya membuat kita lebih aman.”
Israel dan Iran memasuki gencatan senjata di Amerika Serikat pada hari Selasa-meskipun Israel membatalkan serangan baliknya berdasarkan urgensi Trump.
“Anda terbang ke kesuksesan besar lain di Den Haag malam ini,” tambah Roti, merujuk pada perjanjian baru bagi anggota NATO untuk meningkatkan pengeluaran pertahanan hingga 5 % dari PDB.
Allies NATO pertama kali setuju pada tahun 2006 untuk menghabiskan 2 % dari PDB untuk pertahanan – tujuan banyak orang gagal bertemu selama bertahun -tahun. Sekarang, setelah undangan berulang -ulang Trump ke Eropa “untuk mengumpulkan bobotnya”, aliansi sepakat untuk lebih banyak Target 5 % ambisiusDengan pengecualian Spanyol, yang telah lama berjuang untuk memenuhi standar asli.
Jumlah baru dibagi menjadi 3,5 % untuk pengeluaran pertahanan dasar, 1,5 % untuk infrastruktur yang relevan, termasuk cyberwarfare dan intelijen. Duta Besar NATO menyetujui teks penyelesaian pada hari Minggu.
Apa yang bisa diharapkan di KTT NATO mendatang: Trump, pengeluaran, Ukraina, Iran

Sekretaris NATO -Mark Mark Roty Trump memberi selamat gencatan senjata atas Iran dan membujuk Eropa untuk meningkatkan pengeluaran pertahanannya (Nicholas Tokat/Reuters)
Bagi sebagian besar sekutu, target mewakili lompatan besar. Polandia saat ini mengarahkan semua negara anggota sebesar 4,1 % dari PDB ke pertahanan. Amerika Serikat berdiri di 3,4 %.
Trump mengatakan dia tidak percaya bahwa Amerika Serikat perlu mencapai ambang batas 5 % penuh – sikap yang didukung oleh Root.
“Amerika Serikat sudah menghabiskan sekitar 3,5 % untuk pertahanan dasar, dan tidak ada keraguan bahwa itu akan menghabiskan 1,5 % untuk hal -hal pertahanan,” kata Root. “Negara -negara seperti Estonia dan Polandia sangat dekat. Bagi banyak orang lain, itu akan tetap jauh ke depan, tetapi sangat penting untuk melakukan itu.”

Trump juga mengatakan bahwa ia akan memberi hormat kepada Presiden Ukraina Folodimir Zelinsky, yang menghadiri KTT di tengah kumpulan Ukraina yang berkelanjutan untuk bergabung dengan NATO. (Christian Hartmann/Reuters)
Dia juga meminta industri pertahanan “di kedua sisi Samudra Atlantik” untuk meningkatkan produksi.
Routy mengatakan pada hari Selasa: “Tidak masuk akal bahwa Rusia, dengan ekonomi 25 kali, mampu memiliki keunggulan dan keunggulan kita,” kata Roti pada hari Selasa. Dan Eropa mendesak: “Buat pertahanan Anda begitu kuat sehingga tidak ada yang berani menyerang Anda.”
Terlepas dari kemajuan yang dibuat, keraguan Trump yang sekecil apa pun adalah apakah Amerika Serikat akan berkomitmen untuk menyebarkan pertahanan bersama di NATO – Pasal 5 – yang mewajibkan anggota untuk saling membela jika terjadi serangan.
“Ini tergantung pada definisi Anda,” kata Trump ketika ditanya apakah dia akan menghormati komitmen. “Ada banyak definisi Pasal 5, Anda tahu, kan? Tapi saya berkomitmen untuk menjadi teman mereka. Saya telah menjadi teman dari banyak pemimpin ini, dan saya berkomitmen untuk membantu mereka.”
Klik di sini untuk mendapatkan aplikasi Fox News
Namun, Duta Besar AS untuk NATO Matthew Whitaker berusaha meyakinkan sekutu, dan mengatakan kepada wartawan, “Amerika Serikat tidak pergi ke mana pun.”
Dia menceritakan pesan ini, dan saya meminta para mitra untuk “berhenti mengkhawatirkan” dan fokus pada memperkuat pertahanan mereka.
Berita
Chatehr dari Stanford memungkinkan dokter untuk menanyakan tentang catatan medis pasien menggunakan bahasa alami, tanpa mengorbankan data pasien

Bergabunglah dengan acara bahwa para pemimpin lembaga telah dipercaya selama hampir dua dekade. VB Transform menggabungkan orang yang membangun strategi AI untuk institusi nyata. Pelajari lebih lanjut
Bagaimana cara mengobrol dengan catatan kesehatan dengan cara yang dengan chatgpt?
Awalnya, seorang mahasiswa kedokteran mengajukannya, pertanyaan ini mengangkat perkembangan Chatehr Stanford Healthcare. Sekarang dalam produksi, alat ini mempercepat ulasan rencana untuk masuk ke ruang gawat darurat, menyederhanakan ringkasan transfer pasien dan mengumpulkan informasi dari tanggal medis yang kompleks.
Dalam hasil eksperimen awal, pengguna klinis telah melihat pengambilan informasi secara signifikan; Perlu dicatat bahwa dokter darurat menyaksikan 40 % dari waktu untuk meninjau rencana selama operasi pengiriman kritis, kata Michael A. VB mengonversi.
Ini membantu mengurangi kelelahan dokter Anda saat meningkatkan perawatan pasien, dan membangun kontrak fasilitas medis yang Anda lakukan untuk mengumpulkan data dan otomatisasi penting.
“Ini adalah waktu yang menyenangkan di bidang perawatan kesehatan karena kami menghabiskan dua puluh tahun terakhir dalam penomoran data perawatan kesehatan dan menempatkan mereka dalam catatan kesehatan elektronik, tetapi kami tidak benar -benar mengubahnya,” kata Bouver dalam obrolan dengan editor VB -in -dalam -chief. “Dengan teknik model bahasa besar baru, kami sudah mulai melakukan transformasi digital ini.”
Bagaimana Chatehr membantu mengurangi “waktu piyama”, kembali ke reaksi wajah nyata
Dokter menghabiskan hingga 60 % dari waktu mereka dalam tugas administrasi alih -alih merawat pasien langsung. Mereka sering mengenakan misi “Waktu piyama“Pengorbanan Jam pribadi dan keluarga untuk menyelesaikan tugas administrasi di luar jam kerja normal.
Salah satu tujuan Pfeffer yang besar adalah menyederhanakan alur kerja dan mengurangi jam tambahan ini sehingga dokter dan karyawan administrasi dapat fokus pada pekerjaan yang lebih penting.
Misalnya, banyak informasi datang melalui gerbang online pasien. Kecerdasan buatan sekarang memiliki kemampuan untuk membaca pesan dari pasien dan menyusun respons yang dapat ditinjau dan disetujui seseorang.
“Ini adalah jenis titik awal,” jelasnya. “Meskipun tidak harus menghemat waktu, yang menarik, itu benar -benar mengurangi kelelahan kognitif.” Dia menunjukkan bahwa pesan cenderung lebih ramah untuk pasien, karena pengguna dapat mengarahkan model untuk menggunakan bahasa tertentu.
Dengan pindah ke agen, Pfeffer mengatakan mereka adalah konsep “baru” di bidang perawatan kesehatan tetapi memberikan peluang yang menjanjikan.
Misalnya, pasien dengan diagnosis kanker biasanya memiliki tim spesialis yang meninjau catatan mereka dan menentukan langkah -langkah pengobatan berikut. Namun, persiapannya banyak pekerjaan. Dokter dan karyawan harus lulus catatan seluruh pasien, tidak hanya EHR tetapi juga penyakit fotografi, kadang -kadang data genetik, dan informasi tentang uji klinis yang mungkin merupakan pasien yang cocok dengan baik. Pfeffer menjelaskan bahwa semua ini harus berkumpul dengan tim untuk membuat jadwal dan rekomendasi.
“Hal terpenting yang dapat kami lakukan untuk pasien kami adalah memastikan bahwa mereka memiliki perawatan yang tepat, dan dibutuhkan pendekatan multidisiplin,” kata Bajar.
Tujuannya adalah untuk membangun agen di Chatehr yang dapat menghasilkan ringkasan, jadwal waktu dan mengirimkan rekomendasi untuk meninjau dokter. Pfeffer menekankan bahwa itu tidak diganti, karena sedang mempersiapkan “hanya rekomendasi ringkasan yang luar biasa.”
Hal ini memungkinkan tim medis untuk melakukan “perawatan aktual pasien” sekarang, yang sangat penting di dokter dan kekurangan keperawatan.
“Teknologi ini akan mengubah waktu yang dihabiskan dokter dan perawat dalam melakukan tugas administrasi,” katanya. Dan ketika dikombinasikan dengan petugas AI di sekitarnya yang mengambil kendali atas tugas, staf medis lebih memfokuskan waktu pada pasien.
“Reaksi ini adalah wajah wajah yang sangat berharga.” “Kita akan melihat Amnesty International lebih beralih ke interaksi dokter dan pasien.”
Teknik “Luar biasa” bersama tim multidisiplin
Sebelum Catehr, tim Pfeffer telah meluncurkan SecureGpt ke semua Stanford Medicine; Gerbang aman memiliki 15 model berbeda yang dapat dirusak oleh siapa pun. “Yang benar -benar kuat dalam teknologi ini adalah Anda benar -benar dapat membukanya bagi banyak orang untuk pengalaman,” kata Bajar.
Stanford mengikuti pendekatan yang beragam untuk mengembangkan kecerdasan buatan, membangun modelnya sendiri dan menggunakan campuran rak yang aman dan pribadi (seperti Microsoft Azure) dan model open source bila diperlukan. Pfeffer menjelaskan bahwa timnya “tidak cukup spesifik” untuk satu atau yang lain, tetapi lebih lanjut melanjutkan apa yang akan lebih baik untuk keadaan penggunaan tertentu.
Dia berkata: “Ada begitu banyak jenis teknologi luar biasa sekarang sehingga jika Anda dapat mengumpulkannya bersama dengan cara yang benar, Anda bisa mendapatkan solusi seperti yang telah kami bangun.”
Kredit lain untuk Stanford adalah tim multidisiplinnya; Berbeda dengan karyawan intelijen buatan yang hebat atau kelompok amnesti internasional, Pfeffer mengumpulkan kepala data, dua ilmuwan informasi, seorang pejabat utama informasi medis, seorang petugas informasi keperawatan, CTO dan CISO.
Dia berkata: “Kami menggabungkan informatika, ilmu data dan tradisional, dan membungkusnya dalam arsitektur; yang Anda dapatkan adalah grup ajaib ini yang memungkinkan Anda melakukan proyek yang sangat kompleks ini.”
Pada akhirnya, Stanford melihat Amnesty International sebagai alat yang harus diketahui setiap orang, seperti yang dikonfirmasi Pfeffer. Berbagai tim perlu memahami bagaimana kecerdasan buatan digunakan ketika mereka bertemu dengan pemilik bisnis dan menemukan cara untuk menyelesaikan masalah, “Kecerdasan buatan hanyalah bagian dari cara berpikir mereka.”
Tautan sumber
- Berita8 tahun ago
These ’90s fashion trends are making a comeback in 2017
- Berita8 tahun ago
The final 6 ‘Game of Thrones’ episodes might feel like a full season
- Berita8 tahun ago
According to Dior Couture, this taboo fashion accessory is back
- Berita8 tahun ago
The old and New Edition cast comes together to perform
- Berita8 tahun ago
Phillies’ Aaron Altherr makes mind-boggling barehanded play
- Berita8 tahun ago
Uber and Lyft are finally available in all of New York State
- Berita8 tahun ago
Disney’s live-action Aladdin finally finds its stars
- Berita8 tahun ago
Mod turns ‘Counter-Strike’ into a ‘Tekken’ clone with fighting chickens