Daftar Isi
7. 1.9 Tahap Membuat Data Warehouse
7.2 Data Warehouse Design
7.3 OLAP Data Cube Operations
7.3.1 Arsitektur OLAP?
7.3.2 Tipe-tipe OLAP
7.3.3 Pemodelan data di OLAP
7.3.4 Operasi OLAP
7.4 OLAP dibandingkan dengan metode analisis data lainnya
7.5 AWS membantu OLAP
7.6 Amazon Aurora
7.6.1 Klaster DB Amazon Aurora
7.6.2 Versi Amazon Aurora
7.6.3 Basis data relasional yang tersedia di Aurora
7.6.4 Menggunakan Amazon Aurora MySQL
7.6.5 Aurora MySQL versi 3 yang kompatibel dengan MySQL 8.0
7.6.6 Fitur dari MySQL 8.0 Community Edition
7.7 Memperbarui aplikasi untuk terhubung ke klaster DB Aurora MySQL menggunakan sertifikat TLS baru
7.8 Menggunakan autentikasi Kerberos untuk Aurora MySQL
7.9 Batasan autentikasi Kerberos untuk Aurora MySQL
Bab 7
Merancang data Warehouse
7. 1. 9 Tahap Membuat Data Warehouse
Sebelum menyusun tahap membuat datawarehouse, perlu menentukan seperti apa bentuk data
warehouse yang diperlukan oleh aplikasi.Dan berdasarkan sistem data warehouse,terdiri dari tiga
jenis, yakni:
1 Data Warehouse Fungsional,
2 Data Warehouse Terpusat, serta
3 Data Warehouse Terdistribusi.
1.Data Warehouse Fungsional (Functional Data Warehouse)
Functional Data Warehouse
Data warehouse lebih dari satu yang dikelompokkan berdasarkan fungsi-fungsi yang terdapat
dalam perusahaan, antara lain marketing, keuangan, personalisasi, dan sebagainya. Bentuk
dari data warehouse seperti ini memiliki keuntungan yakni sistem yang lebih mudah dibangun dan
membutuhkan biaya yang murah. Sedangkan sisi kerugiannya adalah berpotensi terhadap
hilangnya data serta kemampuan dalam pengumpulan data pengguna terbatas.
2.Data Warehouse Terpusat (Centralized Data Warehouse)
Bentuknya mirip seperti Data Warehouse fungsional, namun sumber data harus dikumpulkan lebih
dahulu dalam satu tempat terpusat, baru setelah itu data disebar ke dalam masing-masing fungsi
menurut kebutuhan organisasi atau perusahaan.
Bentuk data warehouse seperti ini umumnya dipergunakan oleh perusahaan yang belum
mempunyai jaringan eksternal. Bentuk data warehouse ini memiliki keuntungan yakni data benarbenar terpadu karena terdapat konsistensi yang tinggi. Sedangkan kerugiannya adalah memakan
biaya yang mahal serta butuh waktu yang lama untuk membangunnya.
3.Data Warehouse Terdistribusi (Distributed Data Warehouse)
Distributed Data Warehouse
Pada bentuk data warehouse seperti ini perlu digunakan gateway sebagai penghubung antara
data warehouse dan workstation yang mempergunakan berbagai macam sistem. Dengan
menggunakan sistem seperti ini maka perusahaan bisa melakukan akses sumber data yang terdapat
di luar area perusahaan/eksternal.
Keuntungan dari bentuk data warehouse ini adalah data tetap konsisten karena sebelum data
dipergunakan, terlebih dahulu data harus disesuaikan (sinkronisasi). Dan kerugiannya adalah lebih
kompleks diterapkan karena pengelolaan sistem operasi dilakukan secara terpisah dan memakan
biaya yang mahal., bahkan paling mahal dibanding dua bentuk data warehouselainnya.
Tahapan Langkah Membuat Data Warehouse
Terdapat sembilan langkah membuat data warehouse secara
perancangan database untuk data warehouse, seperti berikut ini:
metodologi,
melalui
1. Pemilihan Proses
1
2
Data mart yang pertama dibangun adalah datamart yang bisa dikirim secara tepat waktu
dan bisa menjawab seluruhpertanyaan bisnis.
Pilihan terbaik datamart adalah yang berkaitan dengan penjualan (sales), property
sales, property advertising, dan property leasing
2. Sumber Mana yang Dipilih
1
2
Menentukan apa yang diwakili secara pasti maupun di representasikan oleh suatu tabel
fakta.
Misalnya apabila sumber dari sebuah tabel fakta properti sale merupakan
properti sale pribadi. Maka, sumber dari dimensi pelanggan adalah mengenai rincian
pelanggan yang membeli properti utama.
3. Melakukan Identifikasi Dimensi
1
2
3
4
5
Bangunlah set dimensi secara baik karena akan memberikan kemudahan untuk memahami
serta menggunakan data mart.
Dimensi merupakan hal yang penting untuk menggambarkan mengenai fakta-fakta yang
ada pada tabel fakta.
Misalnya, pada tiap-tiap data pelanggan yang ada pada tabel dimensi dilengkapi dengan
identitas pelanggan, nomer telepon pelanggan, alamat, dan lain-lain.
Apabila terdapat dimensi yang muncul pada dua data mart, maka kedua data mart perlu
memiliki dimensi yang sama. Atau setidaknya salah satunya harus berbentuk subset
matematis.
Apabila pada sebuah dimensi dipergunakan dua data martatau lebih dan dimensi tidak
dapat sinkron. Maka, seluruh data warehouse akan mengalami kegagalan karea dua data
mart tidak dapat dipergunakan secara bersamaan.
4. Pemilihan Fakta
1
2
Sumber dari tabel fakta menentukan fakta yang dapat digunakan pada data mart.
Seluruh fakta harus diekspresikan pada tingkat yang sudah ditetapkan oleh sumber.
5. Menyimpan Prekalkulasi pada Tabel Fakta Apabila Fakta Kehilangan Statement
6. Melengkapi Data Dimensi
Menambah keterangan pada tabel dimensi secara lengkap dengan keterangan yang memiliki
sifat intuitif serta mudah dipahami oleh pengguna.
7. Pemilihan Durasi ada Database
Misalnya pada suatu perusahaan menetapkan bahwa data perlu disimpan selama 15 tahun atau
lebih.
8. Mengamati Perubahan Dimensi yang Terjadi Perlahan
Atribut dimensi yang telah mengalami perubahan tertulis ulang, atribut dimensi yang telah
mengalami perubahan menghasilkan suatu dimensi baru, dan atribut dimensi yang telah
mengalami perubahan menyebabkan alternatif sehingga nilai pada atrinut lama serta yang baru
dapat melakukan akses secara bersamaan pada dimensi yang sama.
9. Menetapkan Prioritas serta Mode Query dengan Mempergunakan Perancangan Fisik
7.2 Data Warehouse Design
Data warehouse adalah kumpulan data yang bersifat subject-oriented, integrated, time variant, dan
non-volatile untuk mendukung proses pengambilan keputusan. Data warehouse sangat penting
karena semua informasi yang dibutuhkan sebuah perusahaan dapat ditemukan disini, oleh karena
itu perusahaan yang ingin mengimplementasikan data warehouse harus dapat membuatnya dengan
baik.
Langkah-langkah dalam membuat data warehouse
1. Determine business objective
Tahap ini kita harus memahami bagaimana atasan mengartikan sukses terhadap bisnis
di perusahaannya. Kita juga akan mempelajari kuantitatif measurement dari aktifitas
bisnis yang digunakan pembuat keputusan sebagai panduan untuk perusahaan.
Measurement tersebut merupakan Key Performance Indicator yang harus kita
kumpulkan dalam sebuah table fakta.
2. Collect and analyze information
Tahap ini kita mengumpulkan informasi-informasi yang diperlukan dalam pembuatan data
warehouse, cara termudah adalah dengan bertanya pada atasan secara langsung untuk meminta
copy dari report-report yang diperlukan.
Bagian lainnya dari tahapan ini adalah mengerti bagaimana informasi dikumpulkan dan diproses.
Data warehouse dapat menjalankan banyak perintah reporting secara otomatis, tetapi kita tidak
dapat mengotomatiskan apa yang tidak kita mengerti. Proses ini membutuhkan banyak interaksi
dengan individu yang terlibat, dan kita perlu memahami proses tersebut dan alasan mengapa proses
tersebut dilakukan
3. Identify core business processes
Pada langkah ini kita telah mengetahui proses bisnis yang terjadi dan hubungan dari setiap proses
ke proses lainnya. Selanjutnya adalah menentukan entity yang saling berhubungan untuk
membuat Key Performance Indicator.
Data warehouse merupakan kumpulan dari struktur data yang saling berhubungan, setiap struktur
memiliki Key Performance Indicator untuk proses bisnis tertentu, dan setiap Key Performance
Indicator berhubungan dengan entity tertentu. Hubungan ini akan menciptakan dimensional
model. Setelah itu kita mengumpulkan Key Performance Indicator ke dalam table fakta.
4. Construct a conceptual data model
Conceptual data model dapat dibuat berdasarkan proses bisnis. Masing-masing proses bisnis
harus teridentifikasi dengan jelas Key Performance Indicator-nya. Pertama kita akan
menentukan subject yang akan digunakan sebagai table fakta dan table dimensi. Table fakta
akan saling berhubungan menjadi OLAP cubes, dan pengukuran data harus dalam skala yang
konsisten. Primary key dari table fakta merupakan composite key yang di dapatkan dari table
dimensi yang berhubungan.
5. Locate data source and plan data transformations
Langkah ini menentukan darimana data untuk datawarehouse didapatkan dan merencanakan
perubahan pada struktur data untuk menyesuaikan dengan struktur data pada datawarehouse.
Langkah ini akan sangat menentukan biaya yang diperlukan dalam mengimplementasikan
data warehouse.
6. Set tracking duration
Pada bagian ini kita menentukan bagaimana kita akan menyimpan data dalam datawarehouse
karena data tersebut akan ada selamanya di dalam data warehouse.
Seiring berjalannya waktu, data yang sudah berusia 2 – 3 tahun dapat diringkas dan disimpan
pada struktur kedua dengan granularity yang rendah. Data tersebut dapat disimpan hingga 3-5
tahun kemudian dapat dipindahkan ke struktur ketiga. Cara ini dapat dilakukan berulang-ulang
untuk mengatur data berdasarkan usianya
7. Implement the plan
Setelah semua perencanaan pembuatan data warehouse telah siap, impelentasikan setiap bagian
sebagai data mart untuk menunjukkan apa yang dapat dilakukan system tersebut. Setelah kita
menyelesaikan setiap bagiannya, maka setiap bagian tersebut akan mudah dihubungkan.
7.3 OLAP Data Cube Operations
Online Analytical Processing (OLAP) adalah multi-dimensional view dari sebuah data. OLAP
membantu pengguna untuk mendapatkan pengetahuan dan pemahaman yang lebih luas
tentang data perusahaan mereka melalui akses yang konsisten, cepat, dan interaktif ke
berbagai tampilan data yang komprehensif.
OLAP Data Cube adalah representasi data yang dapat dilihat dari berbagai dimensi. Bentuk
kubus adalah representasi yang digunakan untuk view data yang dapat dilihat dari 3 dimensi
yang berbeda. Berikut adalah contoh three-dimensional cube untuk sebuah data penjualan
yang dapat dilihat dari tiga dimensi yaitu tipe produk, waktu penjualan yaitu quarter dalam
tahun, dan lokasi penjualan yaitu kota.
Sumber: Parteek, B. (2019). Data Mining and Data Warehousing: Principles and Practical
Techniques. Cambridge University Press: United Kingdom. pp:423.
OLAP Data Cube memiliki beberapa operasi yang dapat dilakukan untuk merubah view data.
Beberapa operasi tersebut antara lain:
•
Roll-up
Roll-up adalah operasi OLAP yang dilakukan untuk meningkatkan informasi yang
didapatkan dari data ke level yang lebih abstract. Roll-up dapat dilakukan dengan
mengurangi jumlah dimension atau meningkatkan hierarki data menjadi level yang lebih
abstrak. Contoh operasi roll-up adalah meningkatkan hierarki data waktu (Time Dimension)
dari Quarter menjadi Tahun.
•
Drill-down
Drill-down adalah operasi OLAP yang dilakukan untuk meningkatkan hierarki data menjadi
level yang lebih detail. Operasi drill-down bertolak belakang dengan operasi roll-up. Contoh
operasi drill-down adalah meningkaykan hierarki data waktu (Time Dimension) dari Quarter
menjadi Bulan.
•
Slice and Dice
Slice adalah operasi OLAP yang membentuk sub-cube dari sebuah OLAP data cube dengan
memilih satu dimension yang spesifik. Contoh slice operation dilakukan ketika user hanya
butuh melihat data dari satu dimension waktu yaitu tahun 2020. Maka dilakukan slice yang
menghasilkan two-dimensional view dari three dimensional berdasarkan dimension spesifik
yang sudah ditentukan sebelumnya.
Sedangkan Dice adalah operasi OLAP yang membentuk sub-cube dari OLAP data cube
dengan memilih lebih dari satu dimension yang spesifik. Sehingga Dice tidak akan
menghasilkan two
dimensional
view dari three
dimensional. Contoh dice
operations dilakukan ketika user butuh melihat dari data dari dua dimension waktu yaitu
tahun 2020 dan 2019. Maka dilakukan dice yang menghasilkan sub cube berdasarkan
dimension spesifik yang sudah di tentukan sebelumnya.
•
Pivot
Pivot adalah operasi OLAP yang merubah atau merotasi sumbu data untuk menghasilkan
tampilan data yang berbeda. Contoh terdapat two dimensional data dengan x axis
adalah item type dan y axis adalah location, maka operasi Pivot akan menukan kedua axes
tersebut dimana setelah dilakukan pivot operation kini x axes adalah location dan y axes
adalah item types.
7.4 OLAP (ONLINE ANALYTICAL PROCESSING)
OLAP atau Online Analytical Processing merupakan software yang menampilkan analisa
multidimensional dari physical data store seperti data warehouse, data mart, ataupun centralized
data store yang memiliki volume data yang sangat besar. Multidimensional model data
memungkinkan dilakukannya analisis yang bersifat kompleks dan query khusus.
OLAP menggabungkan informasi dari beberapa sistem dan membuat forecast atau prediksi. OLAP
tidak hanya menyajikan pertanyaan operasional seperti apa dan siapa, tapi juga memungkinkan
kita untuk mendapatkan jawaban dari suatu kondisi tertentu (what if).
OLAP diaplikasikan diberbagai divisi di dalam perusahaan dengan tujuan yang berbedabeda seperti penggunaan OLAP di divisi marketing untuk melakukan sales forecasting dan
promotion analysis, budgeting dan financial modeling pada divisi finance, serta perencanaan
produk dan analisa kecacatan produk di divisi produksi. OLAP mempunyai beberapa fitur
dan keunggulan seperti multidimensional data view, time intelligence dan bantuan kalkulasi
yang kompleks, response time yang cepat dan interaktif, serta dapat digunakan untuk
mengidentifikasi outliers dan cluster.
Dimana hal tersebut memberikan keuntungan berupa peningkatan produktivitas dari enduser, mengurangi backlog dari application development untuk IT staff, peningkatan
pendapatan, dan mengurangi lalu lintas jaringan pada data warehouse atau sistem OLTP.
Multidimensional view of data dalam OLAP memudahkan proses analisa kompleks seperti
pertanyaan akan rata-rata penjualan item di setiap kota berdasarkan kuartal dengan
menaplikasikan aggregation pada kolom dan row terkait. Multidimensional data
membentuk data cube yang terdiri dari dimension dan fact. Pada Oracle, implementasi multidimensional view didapatkan melalui SELECT…GROUP BY CUBE.
Terdapat beberapa tipe OLAP system antara lain:
ROLAP (Relational OLAP – Star Schema based),
MOLAP (Multidimensional OLAP- Cube based),
dan penggabungan keduanya yaitu HOLAP (Hybrid OLAP).
Pada ROLAP,data tidak perlu disimpan secara multidimensi untuk dilihat secara
multidimensi,melainkan cukup disimpan dalam relational database.
ROLAP dapat menangani data dalam jumlah yang besar, namun sayangnya memiliki
performa query yang rendah karena tidak adanya pre-computed data cube.
Dalam implementasi ROLAP di Oracle, SQL statement yang digunakan ialah ROLLUP
[extension of] GROUP BY [clause]. Sedangkan MOLAP melakukan penyimpanan data di
dalam specialised multidimensional array structure yang memiliki alokasi linear.
Berbeda dengan ROLAP yang hanya menyimpan non-zero fact, semua elemen array
didefinisikan di dalam MOLAP sehingga membuat proses penyimpanan data menjadi tidak
efektif. MOLAP juga tidak dapat menyimpan detail data. Namun, MOLAP memiliki
keunggulan berupa proses query yang sederhana dan cepat karena semua penghitungan
telah dibuat saat data cube dibuat. Penggabungan ROLAP dan MOLAP yaitu HOLAP,
memungkinkan penyimpanan detail data dalam jumlah besar yang merupakan keunggulan
ROLAP dan memanfaatkan teknologi data cube untuk kinerja yang lebih cepat.
OLAP memiliki beberapa kemampuan operasi antara lain, roll-up, drill-down, slice and dice,
serta Pivot (rotate). Roll-up menyediakan view data yang lebih luas. Roll-up digunakan
unyuk menyediakan detail data pada level abstrak kepada user dengan menampilkan
agregasi data yang dimensionnya telah direduksi atau dengan menaikkan hierarki
dimension seperti dari kota menjadi negara.
Drill-down merupakan kebalikan dari roll-up, dimana data view yang disediakan merupakan
detailed data. Drill-down menyediakan informasi detail dengan menggunakan dimension
baru atau dengan menuruni konsep hierarki dimension, seperti dari kuarter ke bulan. Slice
and dice digunakan untuk menyajikan data dari perspektif yang berbeda. Slice operation
memberikan sub-cube baru dengan memilih sebuah dimension dari sebuah cube secara
spesifik, sehingga bisa dikatakan slice merupakan subset dari cube.
Slice mengakibatkan terjadinya reduksi di dalam dimension, sehingga operation ini cocok
digunakan saat user ingin memilih 1 dimensi dari three-dimensional cube, sehingga cube
tersebut menjadi two-dimensional slice. Sedangkan dice merupakan opreation yang tidak
mengurangi jumlah dimension, tapi justru menambah jumlah dimension. Dice operation
memberikan sub-cube baru dengan memilih 2 atau lebih dimension dari sebuah cube. Terakhir
ialah operasi Pivot atau yang disebut juga sebagai rotation. Operasi Pivot melakukan rotasi pada
data axes pada view untuk mendapatkan presentasi lain dari data. Operasi ini dapat berupa
menukar posisi kolom dan baris pada multidimensional data.
Apa yang dimaksud dengan pemrosesan analitis online?
Pemrosesan analitik online (OLAP) adalah teknologi perangkat lunak yang dapat Anda gunakan
untuk menganalisis data bisnis dari sudut pandang yang berbeda. Organisasi mengumpulkan dan
menyimpan data dari berbagai sumber data, seperti situs web, aplikasi, smart meter, dan sistem
internal.
OLAP menggabungkan dan mengelompokkan data ini ke dalam kategori untuk memberikan
wawasan yang dapat ditindaklanjuti untuk perencanaan strategis. Misalnya, pengecer menyimpan
data tentang semua produk yang dijualnya, seperti warna, ukuran, biaya, dan lokasi. Pengecer juga
mengumpulkan data pembelian pelanggan, seperti nama barang yang dipesan dan total nilai
penjualan, dalam sistem yang berbeda. OLAP menggabungkan kumpulan data untuk menjawab
pertanyaan seperti produk warna mana yang lebih populer atau bagaimana penempatan produk
berdampak pada penjualan.
Mengapa OLAP penting?
Pemrosesan analitis online (OLAP) membantu organisasi memproses dan mendapatkan manfaat
dari makin banyaknya informasi digital. Beberapa manfaat OLAP meliputi hal berikut.
Pengambilan keputusan lebih cepat
Bisnis menggunakan OLAP untuk mengambil keputusan yang cepat dan akurat agar tetap
kompetitif dalam ekonomi yang serbacepat. Melakukan kueri analitis di beberapa basis data
relasional sangat memakan waktu karena sistem komputer mencari di beberapa tabel data. Di sisi
lain, sistem OLAP menghitung dan mengintegrasikan data sehingga analis bisnis dapat
menghasilkan laporan lebih cepat jika diperlukan.
Dukungan pengguna nonteknis
Sistem OLAP membuat analisis data yang kompleks lebih mudah bagi pengguna bisnis nonteknis.
Pengguna bisnis dapat membuat perhitungan analitis yang kompleks dan menghasilkan laporan
tanpa perlu mempelajari cara mengoperasikan basis data.
Tampilan data terintegrasi
OLAP menyediakan platform terpadu untuk pemasaran, keuangan, produksi, dan unit bisnis
lainnya. Manajer dan pengambil keputusan dapat melihat gambaran yang lebih besar dan
memecahkan masalah dengan efektif. Mereka dapat melakukan analisis what-if, yang
menunjukkan dampak keputusan yang diambil oleh satu departemen di area bisnis lainnya.
7.3.1 Arsitektur OLAP?
Sistem pemrosesan analitik online (OLAP) menyimpan data multidimensi dengan menunjukkan
informasi dalam lebih dari dua dimensi, atau kategori. Data dua dimensi melibatkan kolom dan
baris, tetapi data multidimensi memiliki beberapa karakteristik. Misalnya, data multidimensi untuk
penjualan produk mungkin terdiri dari dimensi berikut:
1
Tipe produk
2
Lokasi
3
Waktu
Rekayasawan data membangun sistem OLAP multidimensi yang terdiri dari elemen-elemen
berikut.
Gudang data
Gudang data mengumpulkan informasi dari berbagai sumber, termasuk aplikasi, file, dan basis
data. Ini memproses informasi menggunakan berbagai alat sehingga data siap untuk tujuan analitis.
Misalnya, gudang data mungkin mengumpulkan informasi dari basis data relasional yang
menyimpan data dalam tabel baris dan kolom.
Alat ETL
Alat extract, transform, and load (ETL) adalah proses basis data yang secara otomatis mengambil,
mengubah, dan menyiapkan data ke format yang sesuai untuk tujuan analitis. Gudang data
menggunakan ETL untuk mengonversi dan menstandardisasi informasi dari berbagai sumber
sebelum membuatnya tersedia untuk alat OLAP.
Server OLAP
Server OLAP adalah mesin yang mendasari yang memberdayakan sistem OLAP. Server ini
menggunakan alat ETL untuk mentransformasikan informasi dalam basis data relasional dan
mempersiapkannya untuk operasional OLAP.
Basis data OLAP
Basis data OLAP adalah basis data terpisah yang terhubung ke gudang data. Rekayasawan data
terkadang menggunakan basis data OLAP untuk mencegah gudang data dibebani oleh analisis
OLAP. Mereka juga menggunakan basis data OLAP untuk memudahkan dalam membuat model
data OLAP.
Kubus OLAP
Sebuah kubus data adalah model yang mewakili larik multidimensi informasi. Meski lebih mudah
untuk memvisualisasikannya sebagai model data tiga dimensi, sebagian besar kubus data memiliki
lebih dari tiga dimensi. Kubus OLAP, atau hypercube, adalah istilah untuk kubus data dalam
sistem OLAP. Kubus OLAP kaku karena Anda tidak dapat mengubah dimensi dan data yang
mendasarinya setelah Anda memodelnya. Misalnya, jika Anda menambahkan dimensi gudang ke
kubus dengan dimensi produk, lokasi, dan waktu, Anda harus memodel ulang seluruh kubus.
Alat analitik OLAP
Analis bisnis menggunakan alat OLAP untuk berinteraksi dengan kubus OLAP. Mereka
melakukan operasi seperti slicing, dicing, dan pivoting untuk mendapatkan wawasan yang lebih
mendalam tentang informasi spesifik dalam kubus OLAP.
Bagaimana cara kerja OLAP?
Online analytical processing (sistem pemrosesan analitis online/OLAP) bekerja dengan
mengumpulkan, menata, mengagregatkan, dan menganalisis data menggunakan langkah-langkah
berikut:
1.
Server OLAP mengumpulkan data dari berbagai sumber data, termasuk basis data relasional
dan gudang data.
2.
Kemudian, alat extract, transform, and load (ETL) membersihkan, mengagregatkan,
menghitung di awal, dan menyimpan data dalam kubus OLAP sesuai jumlah dimensi yang
ditentukan.
3.
Analis bisnis menggunakan alat OLAP untuk mengkueri dan menghasilkan laporan dari data
multidimensional di kubus OLAP.
OLAP menggunakan Multidimensional Expressions (Ekspresi Multidimensional/MDX) untuk
kueri kubus OLAP. MDX adalah kueri, seperti SQL, yang menyediakan satu set instruksi untuk
memanipulasi basis data.
7.3.2 Tipe-tipe OLAP
Sistem pemrosesan analitis online (OLAP) beroperasi dalam tiga cara utama.
MOLAP
Pemrosesan analitis online multidimensi (MOLAP) melibatkan pembuatan kubus data yang
merepresentasikan data multidimensi dari gudang data. Sistem MOLAP menyimpan data yang
dihitung di awal di hypercube. Rekayasawan data menggunakan MOLAP karena tipe teknologi
OLAP ini memberikan analisis cepat.
ROLAP
Sebagai ganti menggunakan kubus data, relasional online analytical processing (pemrosesan
analitis online relasional/ROLAP) memungkinkan rekyasawan data melakukan analisis data
multidimensi di basis data relasional. Dengan kata lain, rekayasawan menggunakan kueri SQL
untuk mencari dan mengambil informasi spesifik berdasarkan dimensi yang diperlukan. ROLAP
cocok untuk menganalisis data yang luas dan terperinci. Namun, performa kueri ROLAP lamban
jika dibandingkan dengan MOLAP.
HOLAP
Hybrid online analytical processing (pemrosesan analitis online hybrid/HOLAP) menggabungkan
MOLAP dan ROLAP untuk memberikan yang terbaik dari kedua arsitektur tersebut. HOLAP
memungkinkan rekayasawan data dengen cepat mengambil hasil analitis dari kubus data dan
mengekstrasi informasi terperinci dari basis data relasional.
7.3.3 Pemodelan data di OLAP
Pemodelan data adalah representasi data di gudang data atau basis data pemrosesan
analitis online (OLAP).
Pemodelan
data
sangat
penting
dalam
pemrosesan
analitis online relasional (ROLAP) karena menganalisis data langsung dari basis data relasional.
Pemodelan ini menyimpan data multidimensi sebagai skema bintang atau kepingan salju.
Skema bintang
Skema bintang terdiri dari tabel fakta dan beberapa tabel dimensi. Tabel fakta adalah tabel data
yang berisi nilai numerik yang terkait dengan proses bisnis, dan tabel dimensi berisi nilai-nilai
yang menggambarkan setiap atribut dalam tabel fakta. Tabel fakta mengacu pada tabel dimensi
dengan kunci asing—pengidentifikasi unik yang berkorelasi dengan informasi masing-masing
dalam tabel dimensi.
Dalam skema bintang, tabel fakta menghubungkan ke beberapa tabel dimensi sehingga model data
terlihat seperti bintang. Berikut adalah contoh tabel fakta untuk penjualan produk:
a.
ID Produk
b.
ID Lokasi
c.
ID Tenaga Penjualan
d.
Nilai penjualan
ID produk memberi tahu sistem basis data untuk mengambil informasi dari tabel dimensi produk, yang mungkin
terlihat sebagai berikut:
a.
ID Produk
b.
Nama produk
c.
Tipe produk
d.
Biaya produk
Demikian juga, ID lokasi menunjuk ke tabel dimensi lokasi, yang dapat terdiri dari hal berikut:
a.
ID Lokasi
b.
Negara
c.
Kota
Tabel petugas penjualan mungkin terlihat sebagai berikut:
a.
ID Tenaga Penjualan
b.
Nama depan
a.
Nama belakang
b.
E-mail
Skema kepingan salju
Skema kepingan salju adalah perpanjangan dari skema bintang. Beberapa tabel dimensi mungkin mengarah ke
satu atau lebih tabel dimensi sekunder. Ini menghasilkan bentuk kepingan salju seperti saat tabel dimensi
disatukan.
Misalnya, tabel dimensi produk mungkin berisi bidang-bidang berikut:
a.
ID Produk
b.
Nama produk
c.
ID tipe produk
d.
Biaya produk
ID tipe produk terhubung ke tabel dimensi lain seperti yang ditunjukkan dalam contoh berikut:
a. ID tipe produk
b. Ketik nama
c. Versi
d. Varian
7.3.4 Operasi OLAP
Analis bisnis melakukan beberapa operasi analitis dasar dengan kubus multidimensional online
analytical processing (pemrosesan analitis online multidimensi/MOLAP).
Agregasi
Dalam agregasi, sistem pemrosesan analitis online (OLAP) merangkum data untuk atribut
tertentu. Dengan kata lain, ini menunjukkan data yang kurang detail. Misalnya, Anda mungkin
melihat penjualan produk menurut New York, California, London, dan Tokyo. Operasi agregasi
akan memberikan tampilan data penjualan menurut negara, seperti AS, Inggris, dan Jepang.
Penelusuran
Penelusuran adalah kebalikan dari operasi agregasi. Analis bisnis bergerak ke bawah dalam
hierarki konsep dan mengekstraksi detail yang mereka butuhkan. Misalnya, mereka dapat beralih
dari melihat data penjualan per tahun ke memvisualisasikannya menurut bulan.
Slice
Rekayasawan data menggunakan operasi slice untuk membuat tampilan dua dimensi dari kubus
OLAP. Misalnya, kubus MOLAP menyortir data menurut produk, kota, dan bulan. Dengan
mengiris kubus, rekayasawan data dapat membuat tabel seperti spreadsheet yang terdiri dari
produk dan kota untuk bulan tertentu.
Dice
Rekayasawan data menggunakan operasi dice untuk membuat subkubus yang lebih kecil dari
kubus OLAP. Mereka menentukan dimensi yang dibutuhkan dan membangun kubus yang lebih
kecil dari hypercube asli.
Pivot
Operasi pivot melibatkan memutar kubus OLAP di sepanjang salah satu dimensinya untuk
mendapatkan perspektif yang berbeda di model data multidimensi. Misalnya, kubus OLAP tiga
dimensi memiliki dimensi berikut di sumbu masing-masing:
a.
Sumbu X—produk
b.
Sumbu Y—lokasi
c.
Sumbu Z—waktu
Setelah pivot, kubus OLAP memiliki konfigurasi berikut:
a.
Sumbu X—lokasi
b.
Sumbu Y—waktu
c.
Sumbu Z—produk
7.4 OLAP dibandingkan dengan metode analisis data lainnya
Penambangan data
Penambangan data adalah teknologi analitik yang memproses data historis dalam volume besar untuk
menemukan pola dan wawasan. Analis bisnis menggunakan alat penambangan data untuk menemukan hubungan
dalam data dan membuat prediksi tren masa depan yang akurat.
OLAP dan penambangan data
Pemrosesan analitis online (OLAP) adalah teknologi analisis basis data yang melibatkan mengkueri,
mengkestraksi, dan mempelajari data yang dirangkum. Di sisi lain, penggalian data melibatkan melihat secara
saksama ke dalam informasi yang belum diproses. Misalnya, tenaga pemasaran dapat menggunakan alat
penambangan data untuk menganalisis perilaku pengguna dari catatan setiap kunjungan situs web. Mereka
kemudian dapat menggunakan perangkat lunak OLAP untuk memeriksa perilaku tersebut dari berbagai sudut,
seperti durasi, perangkat, negara, bahasa, dan tipe browser.
OLTP
Pemrosesan transaksi online (OLTP) adalah teknologi data yang menyimpan informasi dengan cepat dan andal
dalam basis data. Rekayasawan data menggunakan alat OLTP untuk menyimpan data transaksional, seperti
catatan keuangan, langganan layanan, dan umpan balik pelanggan, dalam basis data relasional. Sistem OLTP
melibatkan pembuatan, memperbarui, dan menghapus catatan dalam tabel relasional.
OLAP dan OLTP
OLTP sangat bagus untuk menangani dan menyimpan beberapa aliran transaksi dalam basis data. Namun, opsi
ini tidak dapat melakukan kueri kompleks dari basis data. Oleh karena itu, analis bisnis menggunakan sistem
OLAP untuk menganalisis data multidimensi. Misalnya, ilmuwan data menghubungkan basis data OLTP ke
kubus OLAP berbasis cloud untuk melakukan kueri intensif komputasi di data historis.
7.5 AWS membantu OLAP
Basis data AWS menyediakan berbagai basis data cloud terkelola untuk membantu organisasi menyimpan dan
melakukan operasi pemrosesan analitis online (OLAP). Analis data menggunakan basis data AWS untuk
membangun basis data aman yang selaras dengan persyaratan organisasi mereka. Organisasi memigrasikan data
bisnis mereka ke basis data AWS karena keterjangkauan dan skalabilitasnya.
a.
Amazon Redshift adalah gudang data cloud yang dirancang khusus untuk pemrosesan
analitis online.
b.
Amazon Relational Database Service (Amazon RDS) adalah basis data relasional dengan
fungsionalitas OLAP. Rekayasawan data menggunakan Amazon RDS dengan Oracle
OLAP untuk melakukan kueri kompleks di kubus dimensi.
c.
Amazon Aurora adalah basis data relasional cloud yang kompatibel dengan MySQL dan
PostgreSQL. Basis data ini dioptimalkan untuk menjalankan beban kerja OLAP
kompleks.
7.6 Amazon Aurora
Amazon Aurora (Aurora) adalah mesin basis data relasional yang dikelola sepenuhnya dan
kompatibel dengan MySQL dan PostgreSQL. Anda sudah tahu bagaimana MySQL dan
PostgreSQL menggabungkan kecepatan dan keandalan basis data komersial kelas atas dengan
kesederhanaan dan efektivitas biaya basis data sumber terbuka. Kode, alat, dan aplikasi yang Anda
gunakan saat ini dengan basis data MySQL dan PostgreSQL Anda yang sudah ada dapat digunakan
dengan Aurora. Dengan sejumlah beban kerja, Aurora dapat memberikan hingga lima kali
throughput MySQL dan hingga tiga kali throughput PostgreSQL tanpa memerlukan perubahan
pada sebagian besar aplikasi Anda saat ini.
Aurora mencakup subsistem penyimpanan performa tinggi. Mesin basis data-nya yang kompatibel
dengan MySQL dan PostgreSQL disesuaikan untuk memanfaatkan penyimpanan terdistribusi
cepat tersebut. Penyimpanan dasarnya meningkat secara otomatis sesuai kebutuhan. Volume
klaster Aurora dapat bertambah ke ukuran maksimum 128 tebibyte (TiB). Aurora juga
mengotomatiskan dan membakukan pengklasteran dan replikasi basis data, yang biasanya
termasuk dalam aspek konfigurasi dan administrasi basis data yang paling menantang.
Aurora adalah bagian dari layanan basis data terkelola Amazon Relational Database Service
(Amazon RDS). Amazon RDS adalah layanan web yang memudahkan penyiapan, pengoperasian,
dan penskalaan basis data relasional di cloud. Jika Anda belum memahami tentang Amazon RDS,
lihat Panduan pengguna Amazon Relational Database Service. Untuk mempelajari lebih lanjut
tentang berbagai opsi basis data yang tersedia di Amazon Web Services, lihat Memilih basis data
yang tepat untuk organisasi Anda pada AWS.
Model tanggung jawab bersama Amazon RDS
Amazon RDS bertanggung jawab untuk menghosting komponen perangkat lunak dan infrastruktur
instans DB dan klaster DB. Anda bertanggung jawab untuk penyetelan kueri, yang merupakan
proses menyesuaikan kueri SQL untuk meningkatkan kinerja. Kinerja kueri sangat bergantung
pada desain basis data, ukuran data, distribusi data, beban kerja aplikasi, dan pola kueri, yang dapat
sangat bervariasi. Pemantauan dan penyetelan adalah proses yang sangat individual yang Anda
miliki untuk basis data RDS Anda. Anda dapat menggunakan Wawasan Kinerja Amazon RDS dan
alat lainnya untuk mengidentifikasi kueri bermasalah.
Cara kerja Amazon Aurora dengan Amazon RDS
Poin-poin berikut mengilustrasikan bagaimana Amazon Aurora berkaitan dengan mesin standar
MySQL dan PostgreSQL yang tersedia di Amazon RDS:
Anda memilih Aurora MySQL atau Aurora PostgreSQL sebagai opsi mesin DB saat
mengatur server basis data baru melalui Amazon RDS.
2 Aurora memanfaatkan fitur Amazon Relational Database Service (Amazon RDS) yang
sudah Anda ketahui untuk manajemen dan administrasi. Aurora menggunakan antarmuka
Amazon RDS AWS Management Console, perintah AWS CLI, dan operasi API untuk
menangani tugas basis data rutin seperti penyediaan, patching, pencadangan, pemulihan,
deteksi kegagalan, dan perbaikan.
3 Operasi manajemen Aurora biasanya melibatkan seluruh klaster server basis data yang
1
disinkronkan melalui replikasi, bukan instans basis data secara individual. Pengklasteran,
replikasi, dan alokasi penyimpanan otomatis membuatnya sederhana dan hemat biaya untuk
mengatur, mengoperasikan, dan menskalakan deployment MySQL dan PostgreSQL terbesar
Anda.
4 Anda dapat membawa data dari Amazon RDS for MySQL dan Amazon RDS for
PostgreSQL ke Aurora dengan membuat dan memulihkan snapshot, atau dengan mengatur
replikasi satu arah. Anda dapat menggunakan alat migrasi tombol-tekan untuk mengkonversi
aplikasi RDS for MySQL dan RDS for PostgreSQL Anda saat ini ke Aurora.
7.6.1 Klaster DB Amazon Aurora
Klaster DB Amazon Aurora terdiri dari satu atau beberapa instans DB dan sebuah volume klaster
yang mengelola data untuk instans DB tersebut. Volume klaster Aurora adalah volume
penyimpanan basis data virtual yang mencakup beberapa Zona Ketersediaan, dengan masingmasing Zona Ketersediaan memiliki salinan data klaster DB. Ada dua jenis instans DB yang
membentuk klaster DB Aurora:
1
Instans DB primer – Mendukung operasi baca dan tulis, serta melakukan semua modifikasi
data pada volume klaster. Setiap klaster DB Aurora memiliki satu instans DB primer.
2 Replika Aurora – Menghubungkan ke volume penyimpanan yang sama seperti instans DB
primer dan mendukung operasi hanya baca. Setiap klaster DB Aurora dapat memiliki hingga
15 Replika Aurora di samping instans DB primer. Ketersediaan tinggi dipertahankan dengan
menempatkan Replika Aurora di Zona Ketersediaan terpisah. Aurora secara otomatis
melakukan failover ke sebuah Replika Aurora jika instans DB primer tidak tersedia. Anda
dapat menentukan prioritas failover untuk Replika Aurora. Replika Aurora juga dapat
mengalihkan beban kerja baca dari instans DB primer.
Diagram berikut mengilustrasikan relasi antara volume klaster, instans DB primer, dan Replika
Aurora dalam klaster DB Aurora.
catatan
Informasi di atas berlaku untuk klaster terprovisi, klaster kueri paralel, klaster basis data global,
klaster Aurora Serverless, dan semua klaster yang kompatibel dengan MySQL 8.0, 5.7, dan
PostgreSQL.
Klaster Aurora mengilustrasikan pemisahan kapasitas komputasi dan penyimpanan. Misalnya,
sebuah konfigurasi Aurora yang hanya memiliki satu instans DB tetap disebut sebagai klaster
karena volume penyimpanan dasarnya memerlukan beberapa simpul penyimpanan yang
didistribusikan ke beberapa Zona Ketersediaan (AZ).
Operasi input/output (I/O) di klaster DB Aurora dihitung dengan cara yang sama, terlepas dari
apakah klaster tersebut berada di instans DB penulis atau pembaca. Untuk informasi selengkapnya,
lihat Konfigurasi penyimpanan untuk klaster DB Amazon Aurora.
7.6.2 Versi Amazon Aurora
Amazon Aurora menggunakan kembali kode dan mempertahankan kompatibilitas dengan mesin
DB MySQL dan PostgreSQL yang mendasarinya. Namun, Aurora memiliki atribut sendiri seperti
nomor versi, siklus rilis, jadwal penghentian versi, dan sebagainya. Bagian berikut menjelaskan
poin-poin umum dan perbedaannya. Informasi ini dapat membantu Anda memutuskan hal-hal
seperti versi mana yang akan dipilih dan cara memverifikasi fitur dan perbaikan mana yang
tersedia di setiap versi. Hal ini juga dapat membantu Anda memutuskan seberapa sering upgrade
dilakukan dan bagaimana rencana proses upgrade Anda.
7.6.3 Basis data relasional yang tersedia di Aurora
Basis data relasional berikut tersedia di Aurora:
1
2
Amazon Aurora MySQL-Compatible Edition. Untuk informasi penggunaan,
lihat Menggunakan Amazon Aurora MySQL. Untuk daftar lengkap versi yang tersedia,
lihat Pembaruan mesin basis data untuk Amazon Aurora MySQL.
Amazon Aurora PostgreSQL-Compatible Edition. Untuk informasi penggunaan,
lihat Menggunakan Amazon Aurora PostgreSQL. Untuk daftar lengkap versi yang
tersedia, lihat Pembaruan Amazon Aurora PostgreSQL.
7.6.4 Menggunakan Amazon Aurora MySQL
Amazon Aurora MySQL adalah mesin basis data relasional yang terkelola sepenuhnya dan
kompatibel dengan MySQL. Mesin basis data ini menggabungkan kecepatan dan keandalan basis
data komersial kelas atas dengan kesederhanaan dan efektivitas biaya basis data sumber terbuka.
Aurora MySQL adalah pengganti "drop-in" untuk MySQL serta memudahkan dan menghemat
biaya untuk menyiapkan, mengoperasikan, dan menskalakan deployment MySQL baru dan yang
sudah ada, sehingga Anda bebas untuk fokus pada bisnis dan aplikasi Anda. Amazon RDS
menyediakan administrasi untuk Aurora dengan menangani tugas basis data rutin seperti
penyediaan, patching, pencadangan, pemulihan, deteksi kegagalan, dan perbaikan. Amazon RDS
juga menyediakan alat migrasi yang memerlukan hanya beberapa klik untuk mengonversi aplikasi
Amazon RDS for MySQL Anda yang ada menjadi aplikasi Aurora MySQL.
Peningkatan performa Amazon Aurora MySQL
Amazon Aurora menyediakan peningkatan performa untuk mendukung beragam kebutuhan basis
data komersial kelas atas.
Penyisipan cepat
Penyisipan cepat mempercepat penyisipan paralel yang diurutkan berdasarkan kunci primer dan
berlaku khusus untuk pernyataan LOAD DATA dan INSERT INTO ... SELECT .... Sisipkan
cache dengan cepat ke posisi kursor dalam sebuah traversal indeks sambil mengeksekusi
pernyataan. Hal ini membantu agar indeks tidak perlu di-traversing lagi.
Penyisipan cepat diaktifkan hanya untuk tabel InnoDB biasa di Aurora MySQL versi 3.03.2 dan
lebih tinggi. Pengoptimalan ini tidak berfungsi untuk tabel sementara InnoDB. Ini dinonaktifkan
di Aurora MySQL versi 2 untuk semua versi 2.11 dan 2.12. Pengoptimalan sisipan cepat hanya
berfungsi jika optimasi Indeks Hash Adaptif dinonaktifkan.
Anda dapat memantau metrik berikut untuk menentukan efektivitas penyisipan cepat untuk klaster
DB Anda:
1
2
aurora_fast_insert_cache_hits: Penghitung yang bertambah saat kursor yang di-cache
berhasil diambil dan diverifikasi.
aurora_fast_insert_cache_misses: Penghitung yang bertambah ketika kursor yang di-cache
tidak lagi valid dan Aurora melakukan traversal indeks normal.
Anda dapat mengambil nilai saat ini dari metrik penyisipan cepat dengan menggunakan perintah
berikut:
mysql> show global status like 'Aurora_fast_insert%';
Anda akan mendapatkan output seperti yang berikut ini:
+---------------------------------+-----------+
| Variable_name
| Value
|
+---------------------------------+-----------+
| Aurora_fast_insert_cache_hits | 3598300 |
| Aurora_fast_insert_cache_misses | 436401336 |
+---------------------------------+-----------+
7.Amazon Aurora MySQL dan data spasial
Daftar berikut merangkum fitur spasial Aurora MySQL utama dan menjelaskan bagaimana fitur
tersebut terkait dengan fitur spasial di MySQL:
1 Aurora MySQL versi 2 mendukung jenis data spasial dan fungsi relasi spasial yang sama
dengan MySQL 5.7. Untuk informasi selengkapnya tentang jenis dan fungsi data ini,
lihat Spatial Data Types dan Spatial Relation Functions dalam dokumentasi MySQL 5.7.
2 Aurora MySQL versi 3 mendukung jenis data spasial dan fungsi relasi spasial yang sama
dengan MySQL 8.0. Untuk informasi selengkapnya tentang jenis dan fungsi data ini,
lihat Spatial Data Types dan Spatial Relation Functions dalam dokumentasi MySQL 8.0.
3 Aurora MySQL mendukung pengindeksan spasial pada tabel InnoDB. Pengindeksan spasial
meningkatkan performa kueri pada set data besar untuk kueri pada data spasial. Di MySQL,
pengindeksan spasial untuk tabel InnoDB tersedia di MySQL 5.7 dan 8.0.
4 Aurora MySQL menggunakan strategi pengindeksan spasial yang berbeda dari MySQL
untuk performa tinggi dengan kueri spasial. Implementasi indeks spasial Aurora
menggunakan kurva pengisian ruang pada B-tree, yang ditujukan untuk memberikan
performa yang lebih tinggi untuk pemindaian rentang spasial daripada R-tree.
catatan
Di Aurora MySQL, transaksi pada tabel dengan indeks spasial yang ditentukan pada kolom dengan
pengidentifikasi referensi spasial (SRID) tidak dapat melakukan penyisipan ke area yang dipilih
untuk diperbarui oleh transaksi lain.
Pernyataan bahasa definisi data (DDL) berikut didukung untuk membuat indeks pada kolom yang
menggunakan jenis data spasial.
CREATE TABLE
Anda dapat menggunakan kata kunci SPATIAL INDEX dalam pernyataan CREATE
TABLE untuk menambahkan indeks spasial ke kolom di tabel baru. Berikut adalah contohnya.
CREATE TABLE test (shape POLYGON NOT NULL, SPATIAL INDEX(shape));
ALTER TABLE
Anda dapat menggunakan kata kunci SPATIAL INDEX dalam pernyataan ALTER TABLE untuk
menambahkan indeks spasial ke kolom dalam tabel yang ada. Berikut adalah contohnya.
ALTER TABLE test ADD SPATIAL INDEX(shape);
CREATE INDEX
Anda dapat menggunakan kata kunci SPATIAL dalam pernyataan CREATE INDEX untuk
menambahkan indeks spasial ke kolom dalam tabel yang ada. Berikut adalah contohnya.
CREATE SPATIAL INDEX shape_index ON test (shape);
7.6.5 Aurora MySQL versi 3 yang kompatibel dengan MySQL 8.0
Anda dapat menggunakan Aurora MySQL versi 3 untuk mendapatkan fitur terbaru yang
kompatibel dengan MySQL, peningkatan performa, dan perbaikan bug. Di bagian berikut ini,
Anda dapat mempelajari tentang Aurora MySQL versi 3, dengan kompatibilitas MySQL 8.0. Anda
dapat mempelajari cara meng-upgrade klaster dan aplikasi Anda ke Aurora MySQL versi 3.
Beberapa fitur Aurora, seperti Aurora Serverless v2, memerlukan Aurora MySQL versi
3.
7.6.6 Fitur dari MySQL 8.0 Community Edition
Rilis awal Aurora MySQL versi 3 kompatibel dengan MySQL 8.0.23 Community Edition.
MySQL 8.0 memperkenalkan beberapa fitur baru, termasuk yang berikut:
1
2
3
4
Fungsi JSON. Untuk informasi penggunaan, lihat JSON Functions dalam Panduan
Referensi MySQL.
Fungsi Jendela. Untuk informasi penggunaan, lihat Window Functions dalam Panduan
Referensi MySQL.
Ekspresi tabel umum (CTE), yang menggunakan klausa WITH. Untuk informasi
penggunaan, lihat WITH (Common Table Expressions) dalam Panduan Referensi MySQL.
Klausa ADD
COLUMN dan RENAME
COLUMN yang
dioptimalkan
untuk
pernyataan ALTER TABLE. Optimisasi ini disebut “DDL instan”. Aurora MySQL versi 3
5
6
7
8
9
kompatibel dengan fitur DDL instan MySQL komunitas. Fitur DDL cepat Aurora
sebelumnya tidak digunakan. Untuk informasi penggunaan untuk DDL instan, lihat DDL
instan (Aurora MySQL versi 3).
Indeks menurun, fungsional, dan tidak terlihat. Untuk informasi penggunaan,
lihat Invisible
Indexes, Descending
Indexes,
dan CREATE
INDEX
Statement dalam Panduan Referensi MySQL.
Hak akses berbasis peran yang dikontrol melalui pernyataan SQL. Untuk informasi
selengkapnya tentang perubahan pada model hak akses, lihat Model hak akses berbasis
peran.
Klausa NOWAIT dan SKIP LOCKED dengan pernyataan SELECT ... FOR SHARE.
Klausa ini menghindari tindakan menunggu transaksi lain untuk membuka kunci baris.
Untuk informasi penggunaan, lihat Locking Reads dalam Panduan Referensi MySQL.
Peningkatan pada replikasi log biner (binlog). Untuk detail Aurora MySQL, lihat Replikasi
log biner. Khususnya, Anda dapat melakukan replikasi yang difilter. Untuk informasi
penggunaan tentang replikasi yang difilter, lihat How Servers Evaluate Replication
Filtering Rules dalam Panduan Referensi MySQL.
Petunjuk. Beberapa petunjuk yang kompatibel dengan MySQL 8.0 sudah di-backport ke
Aurora MySQL versi 2. Untuk informasi tentang menggunakan petunjuk dengan Aurora
MySQL, lihat Petunjuk Aurora MySQL. Untuk daftar lengkap petunjuk di MySQL 8.0
komunitas, lihat Optimizer Hints dalam Panduan Referensi MySQL.
Untuk daftar lengkap fitur yang ditambahkan ke MySQL 8.0 edisi komunitas, lihat
postingan blog Daftar lengkap fitur baru di MySQL 8.0.
Aurora MySQL versi 3 juga mencakup perubahan kata kunci untuk bahasa inklusif,
yang di-backport dari MySQL 8.0.26 komunitas. Untuk detail tentang perubahan
tersebut, lihat Perubahan bahasa inklusif untuk Aurora MySQL versi 3.
Prasyarat Aurora MySQL versi 3 untuk Aurora MySQL Serverless v2
Aurora MySQL versi 3 adalah prasyarat untuk semua instans DB di klaster Aurora MySQL
Serverless v2. Aurora MySQL Serverless v2 mencakup dukungan untuk instans pembaca dalam
klaster DB, dan fitur Aurora lainnya yang tidak tersedia untuk Aurora MySQL Serverless v1.
Layanan ini juga memiliki penskalaan yang lebih cepat dan lebih granular daripada Aurora
MySQL Serverless v1.
Catatan rilis untuk Aurora MySQL versi 3
Untuk catatan rilis untuk semua rilis Aurora MySQL versi 3, lihat Pembaruan mesin basis data
untuk Amazon Aurora MySQL versi 3 dalam Catatan Rilis untuk Aurora MySQL.
Optimisasi kueri paralel baru
Optimisasi kueri pararel Aurora sekarang berlaku untuk lebih banyak operasi SQL:
1 Kueri
pararel
sekarang
berlaku
untuk
tabel
yang
berisi
jenis
data TEXT, BLOB, JSON, GEOMETRY,
serta VARCHAR dan CHAR yang
lebih
panjang dari 768 byte.
2 Kueri paralel dapat mengoptimalkan kueri yang memerlukan tabel yang dipartisi.
3 Kueri paralel dapat mengoptimalkan kueri yang memerlukan panggilan fungsi agregat
dalam daftar pilih dan klausa HAVING.
4 Untuk informasi selengkapnya tentang peningkatan ini, lihat Meningkatkan klaster kueri
paralel ke Aurora MySQL versi 3. Untuk informasi umum tentang kueri paralel Aurora,
lihat Bekerja dengan kueri paralel untuk Amazon Aurora MySQL.
Optimisasi untuk mengurangi waktu pengaktifan ulang basis data.
Klaster DB Aurora MySQL Anda harus memiliki ketersediaan tinggi selama pemadaman yang
direncanakan dan tidak direncanakan.
Administrator basis data perlu melakukan pemeliharaan basis data sesekali. Pemeliharaan ini
mencakup patching basis data, upgrade, modifikasi parameter basis data yang memerlukan boot
ulang manual, pelaksanaan failover untuk mengurangi waktu yang diperlukan dalam mengubah
kelas instans, dan sebagainya. Tindakan yang direncanakan ini membutuhkan waktu henti.
Namun, waktu henti juga dapat disebabkan oleh tindakan yang tidak direncanakan, seperti failover
yang tidak terduga karena kesalahan perangkat keras yang mendasarinya atau throttling
sumber daya basis data. Semua tindakan yang direncanakan dan tidak direncanakan ini
mengakibatkan pengaktifan ulang basis data.
Di Aurora MySQL versi 3.05 dan lebih tinggi, kami telah memperkenalkan optimisasi yang
mengurangi waktu pengaktifan ulang basis data. Optimisasi ini memberikan waktu henti hingga
65% lebih sedikit daripada tanpa optimisasi, dan lebih sedikit gangguan pada beban kerja basis
data Anda, setelah pengaktifan ulang.
Selama pengaktifan basis data, banyak komponen memori internal yang diinisialisasi. Yang
terbesar adalah pool buffer InnoDB, yang di Aurora MySQL adalah 75% dari ukuran memori
instans secara default. Pengujian kami telah menemukan bahwa waktu inisialisasinya sebanding
dengan ukuran pool buffer InnoDB, dan oleh karena itu, akan diskalakan dengan ukuran kelas
instans DB. Selama tahap inisialisasi ini, basis data tidak dapat menerima koneksi, sehingga
memperpanjang waktu henti selama pengaktifan ulang. Tahap pertama dari pengaktifan ulang
cepat Aurora MySQL akan mengoptimalkan inisialisasi pool buffer, yang mengurangi waktu
untuk inisialisasi basis data dan dengan demikian akan mengurangi waktu pengaktifan ulang
secara keseluruhan.
7.7 Memperbarui aplikasi untuk terhubung ke klaster DB Aurora MySQL menggunakan
sertifikat TLS baru
Sejak 13 Januari 2023, Amazon RDS telah menerbitkan serifikat Otoritas Sertifikat (CA) baru
untuk terhubung ke klaster DB Aurora menggunakan Keamanan Lapisan Pengangkutan (TLS).
Setelah itu, Anda dapat menemukan informasi tentang pembaruan aplikasi untuk menggunakan
sertifikat baru.
Topik ini dapat membantu Anda menentukan apakah aplikasi klien menggunakan TLS untuk
terhubung ke klaster DB Anda. Jika demikian, Anda dapat memeriksa lebih lanjut apakah aplikasi
tersebut memerlukan verifikasi sertifikat untuk terhubung.
catatan
Beberapa aplikasi dikonfigurasi untuk terhubung ke klaster DB Aurora MySQL hanya jika aplikasi
tersebut berhasil memverifikasi sertifikat pada server.
Untuk aplikasi tersebut, Anda harus memperbarui penyimpanan kepercayaan aplikasi klien untuk
menyertakan sertifikat CA baru.
Setelah memperbarui sertifikat CA di penyimpanan kepercayaan aplikasi klien, Anda dapat
merotasi sertifikat di klaster DB Anda. Sebaiknya Anda menguji prosedur ini di lingkungan
pengembangan dan penahapan sebelum menerapkannya di lingkungan produksi Anda.
Untuk informasi selengkapnya tentang rotasi sertifikat, lihat Merotasi sertifikat SSL/TLS. Untuk
informasi selengkapnya tentang cara mengunduh sertifikat, lihat Menggunakan SSL/TLS untuk
mengenkripsi koneksi ke klaster DB. Untuk informasi tetang cara menggunakan TLS dengan
klaster DB Aurora MySQL, lihat Menggunakan TLS dengan klaster DB Aurora MySQL.
7.8 Menggunakan autentikasi Kerberos untuk Aurora MySQL
Anda dapat menggunakan autentikasi Kerberos untuk mengautentikasi pengguna saat mereka
terhubung ke klaster DB Aurora MySQL Anda. Untuk melakukannya, lakukan konfigurasi klaster
DB Anda agar menggunakan AWS Directory Service for Microsoft Active Directory untuk
autentikasi Kerberos. AWS Directory Service for Microsoft Active Directory juga disebut AWS
Managed Microsoft AD. Ini adalah fitur yang tersedia dengan AWS Directory Service. Untuk
mempelajari selengkapnya, lihat Apa itu AWS Directory Service? di dalam Panduan Administrasi
AWS Directory Service.
Untuk memulai, buat direktori AWS Managed Microsoft AD untuk menyimpan kredensial
pengguna. Kemudian, berikan domain Active Directory dan informasi lainnya ke klaster DB
Aurora MySQL Anda. Saat pengguna mengautentikasi dengan klaster DB Aurora MySQL,
permintaan autentikasi diteruskan ke direktori AWS Managed Microsoft AD.
Menyimpan semua kredensial Anda di direktori yang sama dapat menghemat waktu dan tenaga
Anda. Dengan pendekatan ini, Anda memiliki sebuah lokasi terpusat untuk menyimpan dan
mengelola kredensial bagi beberapa klaster DB. Menggunakan direktori juga dapat meningkatkan
profil keamanan keseluruhan Anda.
Selain itu, Anda dapat mengakses kredensial dari Microsoft Active Directory on-premise Anda
sendiri. Untuk melakukannya, buat hubungan domain tepercaya sehingga direktori AWS Managed
Microsoft AD mempercayai Microsoft Active Directory on-premise Anda. Dengan cara ini,
pengguna Anda dapat mengakses klaster DB Aurora MySQL Anda dengan pengalaman masuk
tunggal (SSO) Windows yang sama seperti ketika mereka mengakses beban kerja di jaringan onpremise Anda.
Basis data dapat menggunakan Kerberos, AWS Identity and Access Management (IAM), atau
autentikasi Kerberos dan IAM. Namun, karena autentikasi Kerberos dan IAM menyediakan
metode autentikasi yang berbeda, pengguna tertentu dapat login ke basis data hanya menggunakan
salah satu metode autentikasi, dan tidak bisa keduanya. Untuk informasi selengkapnya
tentang autentikasi IAM, lihat Autentikasi basis data IAM.
Ikhtisar autentikasi Kerberos untuk klaster DB Aurora MySQL
Untuk menyiapkan autentikasi Kerberos untuk klaster DB Aurora MySQL, selesaikan langkahlangkah umum berikut. Langkah ini dijelaskan secara lebih mendetail nanti.
1. Gunakan AWS Managed Microsoft AD untuk membuat direktori AWS Managed Microsoft AD.
Anda dapat menggunakan AWS Management Console, AWS CLI, atau AWS Directory Service
untuk membuat direktori. Untuk petunjuk mendetail, lihat Membuat direktori AWS Managed
Microsoft AD Anda di Panduan AdministrasiAWS Directory Service.
2. Buat peran AWS Identity and Access Management (IAM) yang menggunakan kebijakan IAM
terkelola AmazonRDSDirectoryServiceAccess. Peran ini memungkinkan Amazon Aurora untuk
melakukan panggilan ke direktori Anda.
Agar peran dapat mengizinkan akses, titik akhir AWS Security Token Service (AWS STS) harus
diaktifkan di Wilayah AWS untuk akun AWS Anda. Titik akhir AWS STS aktif secara default di
semua Wilayah AWS, dan Anda dapat menggunakannya tanpa tindakan lebih lanjut. Lihat
informasi yang lebih lengkap di Mengaktifkan dan menonaktifkan AWS STS di Wilayah
AWS dalam Panduan Pengguna IAM.
3. Buat dan konfigurasikan pengguna dalam direktori AWS Managed Microsoft AD dengan
menggunakan alat Microsoft Active Directory. Untuk informasi selengkapnya tentang membuat
pengguna di Active Directory Anda, lihat Mengelola pengguna dan grup di Microsoft AD yang
dikelola AWS di Panduan Administrasi AWS Directory Service.
4. Buat atau modifikasi klaster DB Aurora MySQL. Jika Anda menggunakan CLI atau API RDS
dalam permintaan pembuatan, tentukan pengidentifikasi domain dengan parameter Domain.
Gunakan pengidentifikasi d-* yang dihasilkan saat Anda membuat direktori Anda dan nama peran
IAM yang Anda buat.
Jika Anda memodifikasi klaster DB Aurora MySQL yang sudah ada untuk menggunakan
autentikasi Kerberos, atur domain dan parameter peran IAM untuk klaster DB. Cari klaster DB di
dalam VPC yang sama dengan direktori domain.
5. Gunakan kredensial pengguna primer Amazon RDS untuk terhubung ke klaster DB Aurora
MySQL. Buat pengguna basis data di Aurora MySQL dengan menggunakan instruksi di Langkah
6: Buat pengguna MySQL Aurora yang menggunakan autentikasi Kerberos.
Pengguna yang Anda buat dengan cara ini dapat login ke klaster DB Aurora MySQL
menggunakan autentikasi Kerberos. Untuk informasi selengkapnya, lihat Membuat
koneksi dengan Aurora MySQL lewat autentikasi Kerberos.
Untuk menggunakan autentikasi Kerberos dengan Microsoft Active Directory on-premise atau
yang di-host mandiri, buat sebuah trust forest. Trust forest adalah hubungan kepercayaan antara
dua kelompok domain. Kepercayaan bisa satu arah atau dua arah. Untuk informasi selengkapnya
tentang menyiapkan trust forest menggunakan AWS Directory Service, lihat Kapan membuat
hubungan kepercayaan dalam Panduan Administrasi AWS Directory Service.
7.9 Batasan autentikasi Kerberos untuk Aurora MySQL
Pembatasan berikut ini berlaku untuk autentikasi Kerberos untuk Aurora MySQL:
1 Autentikasi Kerberos didukung untuk Aurora MySQL versi 3.03 dan lebih tinggi.
2 Untuk informasi tentang dukungan Wilayah AWS, lihat Autentikasi Kerberos dengan
Aurora MySQL.
3 Untuk menggunakan autentikasi Kerberos dengan Aurora MySQL, klien atau konektor
MySQL Anda harus menggunakan versi 8.0.26 atau lebih tinggi pada platform Unix, 8.0.27
atau lebih tinggi di Windows. Jika tidak, plugin authentication_kerberos_client sisi klien
tidak tersedia dan Anda tidak dapat mengautentikasi.
4 Hanya AWS Managed Microsoft AD yang didukung di Aurora MySQL. Namun, Anda
dapat menggabungkan klaster DB Aurora MySQL ke domain Microsoft AD Terkelola
bersama yang dimiliki oleh akun-akun yang berbeda di dalam Wilayah AWS yang sama.
5 Anda juga dapat menggunakan Active Directory on-premise Anda sendiri. Untuk
informasi selengkapnya, lihat Langkah 2: (Opsional) Buat kepercayaan untuk Active
Directory on-premise
6 Saat menggunakan Kerberos untuk mengautentikasi pengguna yang terhubung ke klaster
Aurora MySQL dari klien MySQL atau dari driver pada sistem operasi Windows, secara
default huruf besar/kecil karakter nama pengguna basis data harus sesuai dengan huruf
besar/kecil pengguna di Active Directory. Misalnya, jika pengguna di Active Directory
muncul sebagai Admin, nama pengguna basis data harus Admin.
7 Namun, Anda sekarang dapat menggunakan perbandingan nama pengguna yang tidak peka
huruf besar/kecil dengan plugin authentication_kerberos. Untuk informasi selengkapnya,
lihat Langkah 8: (Opsional) Lakukan konfigurasi perbandingan nama pengguna yang tidak
peka huruf besar/kecil.
8 Anda harus melakukan boot ulang instans DB pembaca setelah mengaktifkan fitur untuk
menginstal plugin authentication_kerberos.
9 Replikasi ke instans DB yang tidak mendukung plugin authentication_kerberos dapat
menyebabkan kegagalan replikasi.
10 Agar basis data global Aurora dapat menggunakan autentikasi Kerberos, Anda harus
mengonfigurasinya untuk setiap klaster DB di dalam basis data global.
11 Nama domain harus kurang dari 62 karakter.
12 Jangan memodifikasi port klaster DB setelah mengaktifkan autentikasi Kerberos. Jika
Anda memodifikasi port, autentikasi Kerberos tidak akan berfungsi lagi.
Praktikum
1.
Install Aws Quora
Menyiapkan lingkungan Anda untuk Amazon Aurora
Sebelum Anda menggunakan Amazon Aurora untuk pertama kali, selesaikan tugastugas berikut.
Topik
1
Mendaftar Akun AWS
2
Membuat pengguna administratif
3
Memberikan akses terprogram
4
Menentukan persyaratan
5
Berikan akses ke klaster DB dalam VPC dengan membuat grup keamanan
Jika sudah memiliki Akun AWS, mengetahui persyaratan Aurora Anda, dan lebih memilih
menggunakan default untuk grup keamanan IAM dan VPC, Anda dapat langsung beralih
ke Memulai dengan Amazon Aurora.
Mendaftar Akun AWS
Jika Anda tidak memiliki Akun AWS, selesaikan langkah-langkah berikut untuk membuatnya.
Untuk mendaftar Akun AWS
1. Buka https://portal.aws.amazon.com/billing/signup.
2. Ikuti petunjuk secara online.
Anda akan diminta untuk menerima panggilan telepon dan memasukkan kode verifikasi pada
keypad telepon sebagai bagian dari prosedur pendaftaran.
Saat Anda mendaftar Akun AWS, Pengguna root akun AWS akan dibuat. Pengguna root memiliki
akses ke semua Layanan AWS dan sumber daya dalam akun. Sebagai praktik terbaik
keamanan, tetapkan akses administratif ke pengguna administratif, dan hanya gunakan pengguna
root untuk melakukan tugas yang memerlukan akses pengguna root.
AWS akan mengirimkan email konfirmasi kepada Anda setelah proses pendaftaran selesai. Anda
dapat
melihat
aktivitas
akun
saat
ini
dan
mengelola
akun
dengan
mengunjungi https://aws.amazon.com/ dan memilih Akun Saya.
Membuat pengguna administratif
Setelah mendaftar Akun AWS, amankan Pengguna root akun AWS, aktifkan AWS IAM Identity
Center, dan buat sebuah pengguna administratif sehingga Anda tidak menggunakan pengguna
root untuk tugas sehari-hari.
Mengamankan Pengguna root akun AWS Anda
1. Masuk ke AWS Management Console sebagai pemilik akun dengan memilih Pengguna
root dan memasukkan alamat email Akun AWS Anda. Di halaman berikutnya, masukkan kata
sandi Anda. Untuk bantuan masuk menggunakan pengguna root, lihat Masuk sebagai
pengguna root dalam Panduan Pengguna AWS Sign-In.
2. Aktifkan autentikasi multi-faktor (MFA) untuk pengguna root Anda.
Untuk petunjuknya, silakan lihat Mengaktifkan perangkat MFA virtual untuk pengguna root
Akun AWS Anda (konsol) dalam Panduan Pengguna IAM.
Membuat pengguna administratif
1.
Aktifkan Pusat Identitas IAM.
Untuk mendapatkan petunjuk, silakan lihat Mengaktifkan AWS IAM Identity Center di Panduan
Pengguna AWS IAM Identity Center.
2.
Di Pusat Identitas IAM, berikan akses administratif ke sebuah pengguna administratif.
Untuk mendapatkan tutorial tentang menggunakan Direktori Pusat Identitas IAM sebagai sumber
identitas Anda, silakan lihat Mengonfigurasi akses pengguna dengan Direktori Pusat Identitas
IAM default di Panduan Pengguna AWS IAM Identity Center.
Masuk sebagai pengguna administratif
•
Untuk masuk dengan pengguna Pusat Identitas IAM, gunakan URL masuk yang dikirim
ke alamat email Anda saat Anda membuat pengguna Pusat Identitas IAM.
Untuk bantuan masuk menggunakan pengguna Pusat Identitas IAM, lihat Masuk ke portal akses
AWS dalam Panduan Pengguna AWS Sign-In.
Memberikan akses terprogram
Pengguna membutuhkan akses terprogram jika mereka ingin berinteraksi dengan AWS
luar dari AWS Management Console. Cara memberikan akses terprogram bergantung
pada jenis pengguna yang mengakses AWS.
Untuk memberi pengguna akses terprogram, pilih salah satu opsi berikut.
Pengguna mana
Untuk
Oleh
Gunakan kredensial
Mengikuti petunjuk untuk
antarmuka yang ingin Anda
gunakan.
yang
membutuhkan
akses
terprogram?
Identitas tenaga
kerja
sementara untuk
menandatangani
(Pengguna yang
dikelola di Pusat
Identitas IAM)
permintaan terprogram ke
AWS CLI, SDK AWS, atau API
•
AWS.
•
IAM
Untuk AWS CLI,
lihat Mengonfigurasi AWS CLI
untuk menggunakan AWS IAM
Identity Center di Panduan
Pengguna AWS Command Line
Interface.
Untuk SDK AWS, alat, dan API
AWS, lihat Autentikasi Pusat
Identitas IAM di Panduan
Referensi SDK dan Alat AWS.
Gunakan kredensial
Mengikuti petunjuk
sementara untuk
dalam Menggunakan kredensial
menandatangani
sementara dengan sumber daya
permintaan terprogram ke
AWS di Panduan Pengguna IAM.
AWS CLI, SDK AWS, atau API
AWS.
Pengguna mana
Untuk
Oleh
(Tidak direkomendasikan)
Mengikuti petunjuk untuk
antarmuka yang ingin Anda
gunakan.
yang
membutuhkan
akses
terprogram?
IAM
Gunakan kredensial jangka
panjang untuk
menandatangani
permintaan terprogram ke
•
AWS CLI, SDK AWS, atau API
Untuk AWS CLI,
lihat Mengautentikasi
menggunakan kredensial
pengguna IAM di Panduan
AWS.
•
•
Pengguna AWS Command Line
Interface.
Untuk SDK dan alat AWS,
lihat Mengautentikasi
menggunakan kredensial jangka
panjang di Panduan Referensi
SDK dan Alat AWS.
Untuk API AWS,
lihat Mengelola kunci akses
untuk pengguna
IAM di Panduan Pengguna
IAM.
Menentukan persyaratan
Blok bangunan dasar Aurora adalah klaster DB. Klaster DB dapat berisi satu atau beberapa instans
DB. Klaster DB menyediakan alamat jaringan yang disebut titik akhir klaster. Aplikasi Anda
terhubung ke titik akhir klaster yang dibuka oleh klaster DB kapan pun aplikasi tersebut perlu
mengakses basis data yang dibuat dalam klaster DB tersebut. Informasi yang Anda tentukan saat
membuat elemen konfigurasi kontrol klaster DB seperti memori, mesin dan versi basis data,
konfigurasi jaringan, keamanan, serta periode pemeliharaan.
Sebelum membuat grup keamanan dan klaster DB, Anda harus mengetahui klaster DB dan
kebutuhan jaringan Anda. Berikut beberapa hal penting yang perlu dipertimbangkan:
•
•
o
o
o
o
o
o
o
•
Kebutuhan sumber daya – Apa saja kebutuhan memori dan prosesor untuk aplikasi atau layanan
Anda? Anda akan menggunakan pengaturan ini saat menentukan kelas instans DB yang akan Anda
gunakan saat membuat klaster DB. Untuk spesifikasi tentang kelas instans DB, lihat Kelas instans
DB Aurora.
VPC, subnet, dan grup keamanan – Klaster DB Anda akan berada di cloud privat virtual (VPC).
Aturan grup keamanan harus dikonfigurasi agar terhubung ke klaster DB. Daftar berikut
menjelaskan aturan untuk setiap opsi VPC:
VPC Default – Jika akun AWS Anda memiliki VPC default di Wilayah AWS, VPC tersebut
dikonfigurasi untuk mendukung klaster DB. Jika Anda menentukan VPC default saat membuat
klaster DB:
Anda harus membuat grup keamanan VPC yang mengizinkan koneksi dari aplikasi atau layanan
ke klaster DB Aurora. Gunakan opsi Grup Keamanan pada konsol VPC atau AWS CLI untuk
membuat grup keamanan VPC. Untuk informasi, lihat Langkah 3: Buat grup keamanan VPC.
Anda harus menentukan grup subnet DB default. Jika ini adalah klaster DB pertama yang Anda
buat di Wilayah AWS, Amazon RDS akan membuat grup subnet DB default saat membuat klaster
DB.
VPC yang ditentukan pengguna – Jika Anda ingin menentukan VPC yang ditentukan pengguna
ketika membuat klaster DB:
Anda harus membuat grup keamanan VPC yang mengizinkan koneksi dari aplikasi atau layanan
ke klaster DB Aurora. Gunakan opsi Grup Keamanan pada konsol VPC atau AWS CLI untuk
membuat grup keamanan VPC. Untuk informasi, lihat Langkah 3: Buat grup keamanan VPC.
VPC harus memenuhi persyaratan tertentu untuk meng-hosting klaster DB, seperti memiliki
setidaknya dua subnet, yang masing-masingnya berada di zona ketersediaan terpisah. Untuk
informasi, lihat Amazon VPC dan Amazon Aurora.
Anda harus menentukan grup subnet DB yang menentukan subnet mana di VPC tersebut yang
dapat digunakan oleh klaster DB. Untuk informasi, lihat bagian Grup Subnet DB di Bekerja
dengan instans DB dalam VPC.
Ketersediaan tinggi: Apakah Anda memerlukan dukungan failover? Di Aurora, deployment
Multi-AZ menciptakan instans primer dan Replika Aurora. Anda dapat mengonfigurasi instans
primer dan Replika Aurora agar berada di Zona Ketersediaan yang berbeda untuk dukungan
failover. Kami merekomendasikan deployment Multi-AZ untuk beban kerja produksi agar
menjaga ketersediaan yang tinggi. Untuk tujuan pengembangan dan pengujian, Anda dapat
•
•
•
menggunakan deployment Multi-AZ. Untuk informasi selengkapnya, lihat Ketersediaan yang
tinggi untuk Amazon Aurora.
Kebijakan IAM: Apakah akun AWS Anda memiliki kebijakan yang memberikan izin yang
diperlukan untuk melakukan operasi Amazon RDS? Jika Anda tersambung ke AWS menggunakan
kredensial IAM, akun IAM Anda harus memiliki kebijakan IAM yang memberikan izin yang
diperlukan untuk menjalankan operasi Amazon RDS. Untuk informasi selengkapnya,
lihat Pengelolaan identitas dan akses untuk Amazon Aurora.
Port terbuka: Port TCP/IP apa yang akan didengar oleh basis data Anda? Firewall di beberapa
perusahaan mungkin memblokir koneksi ke port default untuk mesin basis data Anda. Jika firewall
perusahaan Anda memblokir port default, pilih port lain untuk klaster DB baru. Perhatikan bahwa
setelah membuat klaster DB yang mendengarkan di port yang Anda tentukan, Anda dapat
mengubah port tersebut dengan mengubah klaster DB.
Wilayah AWS: Wilayah AWS mana yang Anda inginkan untuk basis data Anda? Memiliki basis
data yang dekat dengan aplikasi atau layanan web dapat mengurangi latensi jaringan. Untuk
informasi selengkapnya, lihat Wilayah dan Zona Ketersediaan.
Setelah mendapatkan informasi yang Anda perlukan untuk membuat grup keamanan dan klaster
DB, lanjutkan ke langkah berikutnya.
Berikan akses ke klaster DB dalam VPC dengan membuat grup keamanan
Klaster DB Anda akan dibuat di VPC. Grup keamanan memberikan akses ke klaster DB dalam
VPC. Grup tersebut bertindak sebagai firewall untuk klaster DB terkait, yang mengontrol lalu
lintas masuk dan keluar pada tingkat klaster. Klaster DB dibuat secara default dengan satu firewall
dan grup keamanan default yang mencegah akses ke klaster DB. Oleh karena itu, Anda harus
menambahkan aturan ke grup keamanan yang memungkinkan Anda untuk terhubung ke klaster
DB Anda. Gunakan informasi jaringan dan konfigurasi yang Anda tentukan pada langkah
sebelumnya untuk membuat aturan yang memungkinkan akses ke klaster DB Anda.
Misalnya, jika memiliki aplikasi yang akan mengakses basis data pada klaster DB Anda dalam
VPC, Anda harus menambahkan aturan TCP khusus yang menentukan rentang port dan alamat IP
yang akan digunakan aplikasi untuk mengakses basis data. Jika memiliki aplikasi di instans
Amazon EC2, Anda dapat menggunakan grup keamanan VPC yang Anda siapkan untuk instans
Amazon EC2.
Anda dapat mengonfigurasi konektivitas antara instans Amazon EC2 dan kluster DB
saat membuat klaster DB. Untuk informasi selengkapnya, lihat Konfigurasikan
konektivitas jaringan otomatis dengan instans EC2.
Tip
Anda dapat menyiapkan konektivitas jaringan antara instans Amazon EC2 dan klaster
DB secara otomatis saat membuat klaster DB. Untuk informasi selengkapnya,
lihat Konfigurasikan konektivitas jaringan otomatis dengan instans EC2.
Untuk informasi selengkapnya tentang membuat VPC untuk digunakan dengan Aurora,
lihat Tutorial: Membuat VPC untuk digunakan dengan klaster DB (khusus IPv4). Untuk
informasi tentang skenario umum untuk mengakses instans DB, lihat Skenario untuk
mengakses klaster DB di VPC.
Untuk membuat grup keamanan VPC
1. Masuk ke AWS Management Console dan buka konsol Amazon VPC
di https://console.aws.amazon.com/vpc.
catatan
Pastikan Anda berada di konsol VPC, bukan konsol RDS.
2. Di pojok kanan atas AWS Management Console, pilih Wilayah AWS tempat Anda ingin
membuat grup keamanan VPC dan klaster DB Anda. Dalam daftar sumber daya
Amazon VPC untuk Wilayah AWS tersebut, Anda akan melihat setidaknya satu VPC
dan beberapa subnet. Jika tidak, Anda tidak memiliki VPC default di Wilayah AWS
tersebut.
3. Di panel navigasi, pilih Security Groups (Grup Keamanan).
4. Pilih Buat grup keamanan.
5.
6.
a.
b.
Halaman Membuat grup keamanan akan muncul.
Dalam Detail basic, masukkan Nama grup keamanan dan Deskripsi. Untuk VPC,
pilih VPC tempat Anda ingin membuat klaster DB.
Di bagian Aturan masuk, pilih Tambahkan aturan.
Untuk Tipe, pilih TCP khusus.
Untuk Rentang port, ketik nilai port yang akan digunakan untuk klaster DB Anda.
c. Untuk Sumber, pilih nama grup keamanan atau ketik rentang alamat IP (nilai CIDR)
dari tempat Anda mengakses klaster DB. Jika Anda memilih IP Saya, pilihan ini
mengizinkan akses ke klaster DB dari alamat IP yang terdeteksi di browser Anda.
7. Jika Anda perlu menambahkan lebih banyak alamat IP atau rentang port yang berbeda,
pilih Tambahkan aturan dan masukkan informasi untuk aturan tersebut.
8. (Opsional) Dalam Aturan keluar, tambahkan aturan untuk lalu lintas keluar. Secara
default, semua lalu lintas keluar akan diizinkan.
9. Pilih Buat grup keamanan.
Anda dapat menggunakan grup keamanan VPC yang baru Anda buat sebagai grup
keamanan untuk klaster DB Anda saat membuatnya.
catatan
Jika Anda menggunakan VPC default, grup subnet default yang mencakup semua subnet
VPC akan dibuat untuk Anda. Saat membuat klaster DB, Anda dapat memilih VPC default
dan menggunakan default untuk Grup Subnet DB.
Setelah menyelesaikan persyaratan pengaturan, Anda dapat membuat klaster DB
menggunakan persyaratan dan grup keamanan Anda dengan mengikuti petunjuk
di Membuat klaster DB Amazon Aurora. Untuk informasi tentang memulai dengan
membuat klaster DB yang menggunakan mesin DB tertentu, lihat Memulai dengan
Amazon Aurora.
2.Praktek Installasi & Persiapan DW dgn SQL Server
Preparation
Step 1: Install Software
The lessons in this tutorial assume that you have the following software installed. All of the following
software is installed using SQL Server installation media. For simplicity of deployment, you can install all
of the features on a single computer. To install these features, run SQL Server Setup and select them from
the Feature Selection page.
For more information, see Install SQL Server 2012 from the Installation Wizard (Setup).
•
•
•
•
Database Engine
Analysis Services
SQL Server Data Tools (SSDT)
SQL Server Management Studio
Optionally, consider installing Excel to browse your multidimensional data as you proceed through the
tutorial. Installing Excel enables the Analyze in Excel feature that starts Excel using a PivotTable field list
that is connected to the cube you are building. Using Excel to browse data is recommended because you
can quickly build a pivot report that lets you interact with the data.
Step 2: Install Databases
An Analysis Services multidimensional model uses transactional data that you import from a relational
database management system. For the purposes of this tutorial, you will use the following relational
database as your data source. • AdventureWorksDW2012 – This is a relational data warehouse that runs on
a Database Engine instance. It provides the original data that will be used by the Analysis Services databases
and projects that you build and deploy throughout the tutorial. To install this database, do the following:
1. Download the AdventureWorkDW2012 database from the product samples page on codeplex. The
database file name is AdvntureWorksDW2012_Data.mdf. The file should be in the Downloads
folder on your computer.
2. Copy the AdventureWorksDW2012_Data.mdf file to the data directory of the local SQL Server
Database Engine instance. By default, it is located at C:\Program Files\Microsoft SQL
Server\MSSQL11.MSSQLSERVER\MSSQL\Data.
3. Start SQL Server Management Studio and connect to the Database Engine instance.
4. Right-click Databases, click Attach.
5. Click Add.
6. Select the AdventureWorksDW2012_Data.mdf database file and click OK. If the file is not
listed,
check
the
C:\Program
Files\Microsoft
SQL
Server\MSSQL11.MSSQLSERVER\MSSQL\Data folder to be sure the file is there.
7. In database details, remove the Log file entry. The sample download does not include a log file.
A new log file will be created automatically when you attach the database. Select the log file and
click Remove, and then click OK to attach just the primary database file.
Step 3: Grant Database Permissions
The sample projects use data source impersonation settings that specify the security context under which
data is imported or processed. By default, the impersonation settings specify the Analysis Services service
account for accessing the data. To use this default setting, you must ensure that the service account under
which Analysis Services runs has data reader permissions on the AdventureWorksDW2012 database.
Note: For learning purposes, it is recommended that you use the service account
impersonation option and grant data reader permissions to the service account in
SQL Server. Although other impersonation options are available, not all of them
are suitable for processing operations. Specifically, the option for using the
credentials of the current user is not supported for processing.
Determine the service account. You can use SQL Server Configuration Manager or the Services console
application to view account information. If you installed Analysis Services as the default instance, using
the default account, the service is running as NT Service\MSSQLServerOLAPService.
1. In Management Studio, connect to the database engine instance.
2. Expand the Security folder, right-click Logins and select New Login.
3. On the General page, in Login name, type NT Service\MSSQLServerOLAPService (or type the
name you want or whatever account the service is running as).
4. Click User Mapping.
5. Select the checkbox next to the AdventureWorksDW2012 database. Role membership should
automatically include db_datareader and public. Click OK to accept the defaults.
Lesson 1: Defining a Data Source View within an Analysis Services
Project
Creating an Analysis Services Project
In the following task, you use SQL Server Data Tools (SSDT) to create a new Analysis Services project
named Analysis Services Tutorial, based on the Analysis Services Project template. A project is a collection
of related objects. Projects exist within a solution, which includes one or more projects.
Procedure to Create new a new analysis services project:
1. Click Start, point to All Programs, point to Microsoft SQL Server 2012, and then click SQL Server
Data Tools. The Microsoft Visual Studio development environment opens.
2. On the Start page of Visual Studio, click New Project.
3. In the New Project dialog box, in the Installed Templates pane, expand Business Intelligence, and
then select Analysis Services. Choose the Analysis Services Multidimensional and Data Mining
Project template. Notice the default project name, location, and the default solution name are
generated in the bottom of the dialog box. By default, a new directory is created for the solution.
4. Change the project Name to Analysis Services Tutorial, which also changes the Solution name
box, and then click OK.
You have successfully created the Analysis Services Tutorial project, based on the Analysis Services
Multidimensional and Data Mining Project template, within a new solution that is also named Analysis
Services Tutorial.
Defining a Data Source
After you create an Analysis Services project, you generally start working with the project by defining
one or more data sources that the project will use. When you define a data source, you are defining the
connection string information that will be used to connect to the data source.
Procedures to define a new data source:
1. In Solution Explorer (on the right of the Microsoft Visual Studio window), right-click Data
Sources, and then click New Data Source.
2. On the Welcome to the Data Source Wizard page of the Data Source Wizard, click Next to open
the Select how to define the connection page.
3. On the Select how to define the connection page, you can define a data source based on a new
connection, based on an existing connection, or based on a previously defined data source object.
In this tutorial, you define a data source based on a new connection. Verify that Create a data
source based on an existing or new connection is selected, and then click New.
4. In the Connection Manager dialog box, you define connection properties for the data source. In the
Provider list box, verify that Native OLE DB\SQL Server Native Client 11.0 is selected. Analysis
Services also supports other providers, which are displayed in the Provider list.
5. In the Server name text box, type localhost.
To connect to a named instance on your local computer, type localhost\<instance name>.
To connect to the specific computer instead of the local computer, type the computer name or IP
address.
6. Verify that Use Windows Authentication is selected. In the Select or enter a database name list,
select AdventureWorksDW2012.
7. Click Test Connection to test the connection to the database.
8. Click OK, and then click Next.
9. On the Impersonation Information page of the wizard, you define the security credentials for
Analysis Services to use to connect to the data source. Impersonation affects the Windows account
used to connect to the data source when Windows Authentication is selected. Analysis Services
does not support impersonation for processing OLAP objects. Select Use the service account, and
then click Next.
10. On the Completing the Wizard page, accept the default name, Adventure Works DW 2012, and
then click Finish to create the new data source. Note
Note: To modify the properties of the data source after it has been created, double-click
the data source in the Data Sources folder to display the data source properties in
Data Source Designer.
Defining a Data Source View
After you define the data sources that you will use in an Analysis Services project, the next step is generally
to define a data source view for the project. A data source view is a single, unified view of the metadata
from the specified tables and views that the data source defines in the project. Storing the metadata in the
data source view enables you to work with the metadata during development without an open connection
to any underlying data source.
In the following task, you define a data source view that includes five tables from the
AdventureWorksDW2012 data source.
Procedures to define a new data source view:
1. In Solution Explorer (on the right of the Microsoft Visual Studio window), right-click Data Source
Views, and then click New Data Source View.
2. On the Welcome to the Data Source View Wizard page, click Next. The Select a Data Source page
appears.
3. Under Relational data sources, the Adventure Works DW 2012 data source is selected. Click
Next.
Note: To create a data source view that is based on multiple data sources, first define a
data source view that is based on a single data source. This data source is then called
the primary data source. You can then add tables and views from a secondary data
source. When designing dimensions that contain attributes based on related tables
in multiple data sources, you might need to define a Microsoft SQL Server data
source as the primary data source to use its distributed query engine capabilities.
4. On the Select Tables and Views page, select tables and views from the list of objects that are
available from the selected data source. You can filter this list to help you select tables and views.
Note: Click the maximize button in the upper-right corner so that the window covers the
full screen. This makes it easier to see the complete list of available objects.
In the Available objects list, select the following objects. You can select multiple tables by clicking
each while holding down the CTRL key:
• DimCustomer (dbo)
• DimDate (dbo)
• DimGeography (dbo)
• DimProduct (dbo)
• FactInternetSales (dbo)
5. Click > to add the selected tables to the Included objects list.
6. Click Next.
7. In the Name field, make sure Adventure Works DW 2012 displays, and then click Finish.
The Adventure Works DW 2012 data source view appears in the Data Source Views folder in
Solution Explorer. The content of the data source view is also displayed in Data Source View
Designer in SQL Server Data Tools (SSDT). This designer contains the following elements:
• A Diagram pane in which the tables and their relationships are represented graphically.
• A Tables pane in which the tables and their schema elements are displayed in a tree view.
• A Diagram Organizer pane in which you can create subdiagrams so that you can view
subsets of the data source view.
• A toolbar that is specific to Data Source View Designer.
8. To maximize the Microsoft Visual Studio development environment, click the Maximize button.
9. To view the tables in the Diagram pane at 50 percent, click the Zoom icon on the Data Source View
Designer toolbar. This will hide the column details of each table.
10. To hide Solution Explorer, click the Auto Hide button, which is the pushpin icon on the title bar.
To view Solution Explorer again, position your pointer over the Solution Explorer tab along the
right side of the development environment. To unhide Solution Explorer, click the Auto Hide
button again.
11. If the windows are not hidden by default, click Auto Hide on the title bar of the Properties and
Solution Explorer windows.
You can now view all the tables and their relationships in the Diagram pane.
Notice that there are three relationships between the FactInternetSales table and the DimDate table. Each
sale has three dates associated with the sale: an order date, a due date, and a ship date. To view the details
of any relationship, double-click the relationship arrow in the Diagram pane.
Modifying Default Table Names
You can change the value of the FriendlyName property for objects in the data source view to make them
easier to notice and use. In the following task, you will change the friendly name of each table in the data
source view by removing the "Dim" and "Fact" prefixes from these tables. This will make the cube and
dimension objects (that you will define in the next lesson) easier to notice and use.
You can also change the friendly names of columns, define calculated columns, and join tables or views in
the data source view to make them easier to use.
Procedures to modify default table names
1. In the Tables pane of Data Source View Designer, right-click the FactInternetSales table, and
then click Properties.
2. If the Properties window on the right side of the Microsoft Visual Studio window is not displayed,
click the Auto Hide button on the title bar of the Properties window so that this window remains
visible.
It is easier to change the properties for each table in the data source view when the Properties
window remains open. If you do not pin the window open by using the Auto Hide button, the
window will close when you click a different object in the Diagram pane.
3. Change the FriendlyName property for the FactInternetSales object to InternetSales.
When you click away from the cell for the FriendlyName property, the change is applied. In the
next lesson, you will define a measure group that is based on this fact table. The name of the fact
table will be InternetSales instead of FactInternetSales because of the change you made in this
lesson.
4. Click DimProduct in the Tables pane. In the Properties window, change the FriendlyName
property to Product.
5. Change the FriendlyName property of each remaining table in the data source view in the same
way, to remove the "Dim" prefix.
6. When you have finished, click the Auto Hide button to hide the Properties window again.
7. On the File menu, or on the toolbar of SQL Server Data Tools, click Save All to save the changes
you have made to this point in the Analysis Services Tutorial project. You can stop the tutorial here
if you want and resume it later.
Daftar Pertanyaan
7.1 Jelaskan 9 Tahap Membuat Data Warehouse?
7.2 JelaskanData Warehouse Design?
7.3 JelaskanOLAP Data Cube Operations?
7.3.1 JelaskanArsitektur OLAP?
7.3.2 JelaskanTipe-tipe OLAP?
7.3.3 Jelaskan Pemodelan data di OLAP?
7.3.4 JelaskanOperasi OLAP?
7.4 Jelaskan OLAP dibandingkan dengan metode analisis data lainnya?
7.5 Jelaskan AWS membantu OLAP?
7.6 Jelaskan Amazon Aurora?
7.6.1 Jelaskan Klaster DB Amazon Aurora?
7.6.2 JelaskanVersi Amazon Aurora?
7.6.3 Jelaskan Basis data relasional yang tersedia di Aurora?
7.6.4 JelaskanMenggunakan Amazon Aurora MySQL?
7.6.5 Jelaskan Aurora MySQL versi 3 yang kompatibel dengan MySQL 8.0?
7.6.6 Jelaskan Fitur dari MySQL 8.0 Community Edition?
7.7 Jelaskan Memperbarui aplikasi untuk terhubung ke klaster DB Aurora MySQL menggunakan
sertifikat TLS baru?
7.8 Jelaskan Menggunakan autentikasi Kerberos untuk Aurora MySQL?
7.9 JelaskanBatasan autentikasi Kerberos untuk Aurora MySQL?