Selamat Datang di bloger ini

Selasa, 24 Agustus 2010

Tugas

Perbedaan antara RISC dan CISC

RISC Sejarah
Reduced Instruction Set Computing (RISC) atau “Komputasi set instruksi yang disederhanakan” pertama kali digagas oleh John Cocke, peneliti dari IBM di Yorktown, New York pada tahun 1974 saat ia membuktikan bahwa sekitar 20% instruksi pada sebuah prosesor ternyata menangani sekitar 80% dari keseluruhan kerjanya. Komputer pertama yang menggunakan konsep RISC ini adalah IBM PC/XT pada era 1980-an. Istilah RISC sendiri pertama kali dipopulerkan oleh David Patterson, pengajar pada University of California di Berkely.

Definisi

RISC, yang jika diterjemahkan berarti “Komputasi Kumpulan Instruksi yang Disederhanakan”, merupakan sebuah arsitektur komputer atau arsitektur komputasi modern dengan instruksi-instruksi dan jenis eksekusi yang paling sederhana. Arsitektur ini digunakan pada komputer dengan kinerja tinggi, seperti komputer vektor. Selain digunakan dalam komputer vektor, desain ini juga diimplementasikan pada prosesor komputer lain, seperti pada beberapa mikroprosesor Intel 960Itanium (IA64) dari Intel CorporationAlpha AXPDECR4x00 dari MIPS CorporationPowerPC dan Arsitektur POWER dari International Business Machine. Selain itu, RISC juga umum dipakai pada Advanced RISC Machine (ARM)StrongARMXScale), SPARC dan UltraSPARC dari Sun Microsystems, serta PA-RISC dari Hewlett-Packard. dari  (termasuk di antaranya adalah Intel  dan 
Selain RISC, desain Central Processing Unit yang lain adalah CISC (Complex Instruction Set Computing), yang jika diterjemahkan ke dalam Bahasa Indonesia berarti Komputasi Kumpulan Instruksi yang kompleks atau rumit.
CISC

Definisi

Complex instruction-set computing atau Complex Instruction-Set Computer (CISC; “Kumpulan instruksi komputasi kompleks”) adalah sebuah arsitektur dari set instruksi dimana setiap instruksi akan menjalankan beberapa operasi tingkat rendah, seperti pengambilan dari memory, operasi aritmetika, dan penyimpanan ke dalam memory, semuanya sekaligus hanya di dalam sebuah instruksi. Karakteristik CISC dapat dikatakan bertolak-belakang dengan RISC.
Sebelum proses RISC didesain untuk pertama kalinya, banyak arsitek komputer mencoba menjembatani celah semantik”, yaitu bagaimana cara untuk membuat set-set instruksi untuk mempermudah pemrograman level tinggi dengan menyediakan instruksi “level tinggi” seperti pemanggilan procedure, proses pengulangan dan mode-mode pengalamatan kompleks sehingga struktur data dan akses array dapat dikombinasikan dengan sebuah instruksi. Karakteristik CISC yg “sarat informasi” ini memberikan keuntungan di mana ukuran program-program yang dihasilkan akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang. Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi jauh lebih hemat.
Memang setelah itu banyak desain yang memberikan hasil yang lebih baik dengan biaya yang lebih rendah, dan juga mengakibatkan pemrograman level tinggi menjadi lebih sederhana, tetapi pada kenyataannya tidaklah selalu demikian. Contohnya, arsitektur kompleks yang didesain dengan kurang baik (yang menggunakan kode-kode mikro untuk mengakses fungsi-fungsi hardware), akan berada pada situasi di mana akan lebih mudah untuk meningkatkan performansi dengan tidak menggunakan instruksi yang kompleks (seperti instruksi pemanggilan procedure), tetapi dengan menggunakan urutan instruksi yang sederhana.
Satu alasan mengenai hal ini adalah karena set-set instruksi level-tinggi, yang sering disandikan (untuk kode-kode yang kompleks), akan menjadi cukup sulit untuk diterjemahkan kembali dan dijalankan secara efektif dengan jumlah transistor yang terbatas. Oleh karena itu arsitektur -arsitektur ini memerlukan penanganan yang lebih terfokus pada desain prosesor. Pada saat itu di mana jumlah transistor cukup terbatas, mengakibatkan semakin sempitnya peluang ditemukannya cara-cara alternatif untuk optimisasi perkembangan prosesor. Oleh karena itulah, pemikiran untuk menggunakan desain RISC muncul pada pertengahan tahun 1970 (Pusat Penelitian Watson IBM 801 – IBMs)
Contoh-contoh prosesor CISC adalah System/360, VAX, PDP-11, varian Motorola 68000 , dan CPU AMD dan Intel x86.
Istilah RISC dan CISC saat ini kurang dikenal, setelah melihat perkembangan lebih lanjut dari desain dan implementasi baik CISC dan CISC. Implementasi CISC paralel untuk pertama kalinya, seperti 486 dari Intel, AMD, Cyrix, dan IBM telah mendukung setiap instruksi yang digunakan oleh prosesor-prosesor sebelumnya, meskipun efisiensi tertingginya hanya saat digunakan pada subset x86 yang sederhana (mirip dengan set instruksi RISC, tetapi tanpa batasan penyimpanan/pengambilan data dari RISC). Prosesor-prosesor modern x86 juga telah menyandikan dan membagi lebih banyak lagi instruksi-instruksi kompleks menjadi beberapa “operasi-mikro” internal yang lebih kecil sehingga dapat instruksi-instruksi tersebut dapat dilakukan secara paralel, sehingga mencapai performansi tinggi pada subset instruksi yang lebih besar.
sumber :

http://derwan.wordpress.com/2010/02/25/perbedaan-antara-risc-dan-cisc/

 

URUTAN SATUAN BYTE

 bit = satuan binnary 0 atau 1 ex. (110100100110..dan seterusnya)

1 B (byte)               =  8 bit
1 KB (KiloByte)     = 1024 Bytes
1 MB (MegaByte)  = 1024 KiloBytes
1 GB (GigaByte)   = 1024 MegaBytes
1 TB (Terabyte)     = 1024 Gigabytes
1 PB (Petabytes)  = 1024 Terabytes
1 EB (Exabytes)    = 1024 Petabytes
1 ZB (Zettabytes)  = 1024 Exabytes
1YB (Yottabytes)   = 1024 Zettabytes


Nehalem
Semua prosesor Intel dengan nama Core i dibangun dengan dasar arsitektur yang diberi nama Nehalem. Secara sederhana, arsitektur baru ini menawarkan performa yang lebih tinggi dengan pengaturan konsumsi daya yang jauh lebih baik. Ada beberapa hal yang merupakan keunggulan dari arsitektur Nehalem secara umum, jika dibandingkan dengan arsitektur Core sebelumnya:
Penggabungan komponen
Pada Nehalem, ada beberapa komponen yang digabungkan menjadi satu di dalam prosesor. Hal yang paling penting adalah penggabungan pengendali memori (RAM) ke dalam prosesor. Sebelumnya, pengendali ini terletak di luar prosesor. Dengan dimasukkannya pengendali memori ke dalam prosesor, kecepatan aliran data antara prosesor dan memori menjadi lebih tinggi. Pada prosesor Core i3 M,  Core i5 M, dan Core i7 M, Intel bahkan memasukkan VGA-nya ke dalam prosesor. Hal tersebut tentu saja membuat kemampuan VGA menjadi lebih baik dibandingkan VGA onboard terdahulu.
Efisiensi daya, maksimalisasi performa
Pada Core2 Duo (prosesor dengan 2 inti prosesor/2 core), jika kecepatan prosesor adalah 3 GHz, itu berarti kedua inti prosesor bekerja dengan kecepatan 3 GHz. Saat prosesor beristirahat, keduanya akan turun kecepatannya secara bersamaan juga. Jadi, kalau ada software yang hanya bisa menggunakan 1 inti prosesor (contoh: Apple itunes), kedua inti prosesor akan bekerja pada kecepatan tertingginya (3 GHz). Satu inti prosesor bekerja mengolah data, sementara inti lainnya hanya ikut-ikutan menaikkan kecepatan tanpa mengolah data.
Pada Nehalem, kondisinya berbeda. Contohnya pada Core i3 (2 inti prosesor/2 core), kondisi di atas hanya akan membuat 1 inti prosesor bekerja dan menggunakan kecepatan maksimumnya. Sementara 1 inti prosesor yang tidak terpakai akan tetap beristirahat untuk menghemat energi.

 

 

Tidak ada komentar:

Posting Komentar