Aritmatika, cabang matematika yang berfokus pada operasi bilangan dasar seperti penjumlahan, pengurangan, perkalian, dan pembagian, adalah fondasi dari hampir semua sistem komputasi modern. Meskipun kita sering menggunakan kalkulator atau komputer untuk melakukan perhitungan kompleks secara instan, memahami cara kerja aritmatika di tingkat dasar—terutama bagaimana mesin digital memprosesnya—memberikan wawasan mendalam tentang dunia teknologi.
Pada intinya, komputer tidak beroperasi menggunakan bilangan desimal (basis 10) yang kita kenal sehari-hari, melainkan menggunakan sistem bilangan biner (basis 2). Semua data, instruksi, dan hasil perhitungan diwakili oleh kombinasi angka 0 dan 1. Inilah sebabnya mengapa pemahaman aritmatika biner sangat krusial.
Di dalam Unit Pemroses Sentral (CPU), operasi aritmatika dilakukan oleh komponen yang disebut Unit Aritmatika Logika (ALU). ALU bekerja dengan rangkaian digital yang dibangun dari gerbang logika dasar seperti AND, OR, dan NOT.
Penjumlahan Biner adalah operasi paling fundamental. Sama seperti desimal, penjumlahan biner melibatkan penjumlahan digit dan membawa (carry) ke posisi berikutnya jika hasilnya melebihi nilai basis. Dalam biner:
Rangkaian yang dirancang untuk melakukan penjumlahan ini disebut Half Adder atau Full Adder. Untuk menjumlahkan dua bilangan multibit (misalnya, 8-bit), serangkaian Full Adder dihubungkan secara seri, di mana output carry dari satu tahap menjadi input carry untuk tahap selanjutnya.
Pengurangan dalam sistem biner biasanya tidak diimplementasikan secara langsung sebagai operasi terpisah. Sebaliknya, komputer memanfaatkan trik matematis yang cerdas: penjumlahan dengan komplemen dua (Two's Complement).
Untuk menghitung $A - B$, komputer sebenarnya menghitung $A + (-B)$. Bilangan negatif $(-B)$ direpresentasikan menggunakan notasi komplemen dua dari $B$. Cara membuat komplemen dua adalah dengan membalik semua bit ($0 \to 1$ dan $1 \to 0$) lalu menambahkan 1.
Perkalian dan pembagian dalam biner jauh lebih efisien daripada yang kita bayangkan pada sistem desimal. Prosesnya mirip dengan perkalian panjang (long multiplication) yang kita pelajari di sekolah dasar, namun jauh lebih sederhana karena hanya melibatkan perkalian dengan 0 atau 1.
Perkalian $A \times B$ pada dasarnya adalah serangkaian penjumlahan berulang dengan pergeseran posisi. Dalam implementasi perangkat keras:
Metode yang lebih cepat sering menggunakan rangkaian yang melibatkan perkalian dan penjumlahan simultan, sering disebut "multiplier array."
Pembagian ($A / B$) adalah kebalikan dari perkalian, dan sering diimplementasikan melalui serangkaian pengurangan berulang atau menggunakan metode yang disebut pergeseran dan pengurangan (shift and subtract).
Prosesnya melibatkan pengujian apakah pembagi ($B$) dapat dikurangi dari dividen ($A$) yang digeser. Jika bisa, hasilnya adalah 1 (bit hasil), dan kita lanjutkan dengan sisa hasilnya. Jika tidak, hasilnya 0, dan kita geser lagi.
Sejauh ini kita membahas aritmatika bilangan bulat (integer). Namun, bagaimana komputer menangani bilangan desimal yang sangat besar atau sangat kecil, seperti $3.14159$ atau $0.000000012$? Jawabannya adalah aritmatika titik mengambang (Floating Point Arithmetic), yang distandarisasi oleh IEEE 754.
Bilangan titik mengambang direpresentasikan dalam tiga bagian: Tanda (Sign), Eksponen (Exponent), dan Mantisa (Significand/Fraction). Operasi aritmatika pada bilangan ini jauh lebih kompleks:
Oleh karena kompleksitasnya, operasi floating point ditangani oleh unit khusus dalam CPU yang disebut FPU (Floating Point Unit), yang dirancang untuk melakukan operasi matriks dan perhitungan ilmiah dengan akurasi tinggi.
Kesimpulannya, cara kerja aritmatika di balik layar adalah studi tentang bagaimana operasi matematika yang kita anggap intuitif diubah menjadi serangkaian saklar on/off (0 dan 1) yang diproses oleh gerbang logika dalam sirkuit elektronik. Dari penjumlahan biner sederhana hingga normalisasi kompleks pada floating point, fondasi komputasi adalah efisiensi sirkuit dalam memanipulasi bit.