Academia.eduAcademia.edu

Pertemuan ke 7 Datawarehouse2024

2024, Pertemuan ke 7 Datawarehouse2024

Pertemuan ke 7 Datawarehouse2024

Daftar Isi 7. 1.9 Tahap Membuat Data Warehouse 7.2 Data Warehouse Design 7.3 OLAP Data Cube Operations 7.3.1 Arsitektur OLAP? 7.3.2 Tipe-tipe OLAP 7.3.3 Pemodelan data di OLAP 7.3.4 Operasi OLAP 7.4 OLAP dibandingkan dengan metode analisis data lainnya 7.5 AWS membantu OLAP 7.6 Amazon Aurora 7.6.1 Klaster DB Amazon Aurora 7.6.2 Versi Amazon Aurora 7.6.3 Basis data relasional yang tersedia di Aurora 7.6.4 Menggunakan Amazon Aurora MySQL 7.6.5 Aurora MySQL versi 3 yang kompatibel dengan MySQL 8.0 7.6.6 Fitur dari MySQL 8.0 Community Edition 7.7 Memperbarui aplikasi untuk terhubung ke klaster DB Aurora MySQL menggunakan sertifikat TLS baru 7.8 Menggunakan autentikasi Kerberos untuk Aurora MySQL 7.9 Batasan autentikasi Kerberos untuk Aurora MySQL Bab 7 Merancang data Warehouse 7. 1. 9 Tahap Membuat Data Warehouse Sebelum menyusun tahap membuat datawarehouse, perlu menentukan seperti apa bentuk data warehouse yang diperlukan oleh aplikasi.Dan berdasarkan sistem data warehouse,terdiri dari tiga jenis, yakni: 1 Data Warehouse Fungsional, 2 Data Warehouse Terpusat, serta 3 Data Warehouse Terdistribusi. 1.Data Warehouse Fungsional (Functional Data Warehouse) Functional Data Warehouse Data warehouse lebih dari satu yang dikelompokkan berdasarkan fungsi-fungsi yang terdapat dalam perusahaan, antara lain marketing, keuangan, personalisasi, dan sebagainya. Bentuk dari data warehouse seperti ini memiliki keuntungan yakni sistem yang lebih mudah dibangun dan membutuhkan biaya yang murah. Sedangkan sisi kerugiannya adalah berpotensi terhadap hilangnya data serta kemampuan dalam pengumpulan data pengguna terbatas. 2.Data Warehouse Terpusat (Centralized Data Warehouse) Bentuknya mirip seperti Data Warehouse fungsional, namun sumber data harus dikumpulkan lebih dahulu dalam satu tempat terpusat, baru setelah itu data disebar ke dalam masing-masing fungsi menurut kebutuhan organisasi atau perusahaan. Bentuk data warehouse seperti ini umumnya dipergunakan oleh perusahaan yang belum mempunyai jaringan eksternal. Bentuk data warehouse ini memiliki keuntungan yakni data benarbenar terpadu karena terdapat konsistensi yang tinggi. Sedangkan kerugiannya adalah memakan biaya yang mahal serta butuh waktu yang lama untuk membangunnya. 3.Data Warehouse Terdistribusi (Distributed Data Warehouse) Distributed Data Warehouse Pada bentuk data warehouse seperti ini perlu digunakan gateway sebagai penghubung antara data warehouse dan workstation yang mempergunakan berbagai macam sistem. Dengan menggunakan sistem seperti ini maka perusahaan bisa melakukan akses sumber data yang terdapat di luar area perusahaan/eksternal. Keuntungan dari bentuk data warehouse ini adalah data tetap konsisten karena sebelum data dipergunakan, terlebih dahulu data harus disesuaikan (sinkronisasi). Dan kerugiannya adalah lebih kompleks diterapkan karena pengelolaan sistem operasi dilakukan secara terpisah dan memakan biaya yang mahal., bahkan paling mahal dibanding dua bentuk data warehouselainnya. Tahapan Langkah Membuat Data Warehouse Terdapat sembilan langkah membuat data warehouse secara perancangan database untuk data warehouse, seperti berikut ini: metodologi, melalui 1. Pemilihan Proses 1 2 Data mart yang pertama dibangun adalah datamart yang bisa dikirim secara tepat waktu dan bisa menjawab seluruhpertanyaan bisnis. Pilihan terbaik datamart adalah yang berkaitan dengan penjualan (sales), property sales, property advertising, dan property leasing 2. Sumber Mana yang Dipilih 1 2 Menentukan apa yang diwakili secara pasti maupun di representasikan oleh suatu tabel fakta. Misalnya apabila sumber dari sebuah tabel fakta properti sale merupakan properti sale pribadi. Maka, sumber dari dimensi pelanggan adalah mengenai rincian pelanggan yang membeli properti utama. 3. Melakukan Identifikasi Dimensi 1 2 3 4 5 Bangunlah set dimensi secara baik karena akan memberikan kemudahan untuk memahami serta menggunakan data mart. Dimensi merupakan hal yang penting untuk menggambarkan mengenai fakta-fakta yang ada pada tabel fakta. Misalnya, pada tiap-tiap data pelanggan yang ada pada tabel dimensi dilengkapi dengan identitas pelanggan, nomer telepon pelanggan, alamat, dan lain-lain. Apabila terdapat dimensi yang muncul pada dua data mart, maka kedua data mart perlu memiliki dimensi yang sama. Atau setidaknya salah satunya harus berbentuk subset matematis. Apabila pada sebuah dimensi dipergunakan dua data martatau lebih dan dimensi tidak dapat sinkron. Maka, seluruh data warehouse akan mengalami kegagalan karea dua data mart tidak dapat dipergunakan secara bersamaan. 4. Pemilihan Fakta 1 2 Sumber dari tabel fakta menentukan fakta yang dapat digunakan pada data mart. Seluruh fakta harus diekspresikan pada tingkat yang sudah ditetapkan oleh sumber. 5. Menyimpan Prekalkulasi pada Tabel Fakta Apabila Fakta Kehilangan Statement 6. Melengkapi Data Dimensi Menambah keterangan pada tabel dimensi secara lengkap dengan keterangan yang memiliki sifat intuitif serta mudah dipahami oleh pengguna. 7. Pemilihan Durasi ada Database Misalnya pada suatu perusahaan menetapkan bahwa data perlu disimpan selama 15 tahun atau lebih. 8. Mengamati Perubahan Dimensi yang Terjadi Perlahan Atribut dimensi yang telah mengalami perubahan tertulis ulang, atribut dimensi yang telah mengalami perubahan menghasilkan suatu dimensi baru, dan atribut dimensi yang telah mengalami perubahan menyebabkan alternatif sehingga nilai pada atrinut lama serta yang baru dapat melakukan akses secara bersamaan pada dimensi yang sama. 9. Menetapkan Prioritas serta Mode Query dengan Mempergunakan Perancangan Fisik 7.2 Data Warehouse Design Data warehouse adalah kumpulan data yang bersifat subject-oriented, integrated, time variant, dan non-volatile untuk mendukung proses pengambilan keputusan. Data warehouse sangat penting karena semua informasi yang dibutuhkan sebuah perusahaan dapat ditemukan disini, oleh karena itu perusahaan yang ingin mengimplementasikan data warehouse harus dapat membuatnya dengan baik. Langkah-langkah dalam membuat data warehouse 1. Determine business objective Tahap ini kita harus memahami bagaimana atasan mengartikan sukses terhadap bisnis di perusahaannya. Kita juga akan mempelajari kuantitatif measurement dari aktifitas bisnis yang digunakan pembuat keputusan sebagai panduan untuk perusahaan. Measurement tersebut merupakan Key Performance Indicator yang harus kita kumpulkan dalam sebuah table fakta. 2. Collect and analyze information Tahap ini kita mengumpulkan informasi-informasi yang diperlukan dalam pembuatan data warehouse, cara termudah adalah dengan bertanya pada atasan secara langsung untuk meminta copy dari report-report yang diperlukan. Bagian lainnya dari tahapan ini adalah mengerti bagaimana informasi dikumpulkan dan diproses. Data warehouse dapat menjalankan banyak perintah reporting secara otomatis, tetapi kita tidak dapat mengotomatiskan apa yang tidak kita mengerti. Proses ini membutuhkan banyak interaksi dengan individu yang terlibat, dan kita perlu memahami proses tersebut dan alasan mengapa proses tersebut dilakukan 3. Identify core business processes Pada langkah ini kita telah mengetahui proses bisnis yang terjadi dan hubungan dari setiap proses ke proses lainnya. Selanjutnya adalah menentukan entity yang saling berhubungan untuk membuat Key Performance Indicator. Data warehouse merupakan kumpulan dari struktur data yang saling berhubungan, setiap struktur memiliki Key Performance Indicator untuk proses bisnis tertentu, dan setiap Key Performance Indicator berhubungan dengan entity tertentu. Hubungan ini akan menciptakan dimensional model. Setelah itu kita mengumpulkan Key Performance Indicator ke dalam table fakta. 4. Construct a conceptual data model Conceptual data model dapat dibuat berdasarkan proses bisnis. Masing-masing proses bisnis harus teridentifikasi dengan jelas Key Performance Indicator-nya. Pertama kita akan menentukan subject yang akan digunakan sebagai table fakta dan table dimensi. Table fakta akan saling berhubungan menjadi OLAP cubes, dan pengukuran data harus dalam skala yang konsisten. Primary key dari table fakta merupakan composite key yang di dapatkan dari table dimensi yang berhubungan. 5. Locate data source and plan data transformations Langkah ini menentukan darimana data untuk datawarehouse didapatkan dan merencanakan perubahan pada struktur data untuk menyesuaikan dengan struktur data pada datawarehouse. Langkah ini akan sangat menentukan biaya yang diperlukan dalam mengimplementasikan data warehouse. 6. Set tracking duration Pada bagian ini kita menentukan bagaimana kita akan menyimpan data dalam datawarehouse karena data tersebut akan ada selamanya di dalam data warehouse. Seiring berjalannya waktu, data yang sudah berusia 2 – 3 tahun dapat diringkas dan disimpan pada struktur kedua dengan granularity yang rendah. Data tersebut dapat disimpan hingga 3-5 tahun kemudian dapat dipindahkan ke struktur ketiga. Cara ini dapat dilakukan berulang-ulang untuk mengatur data berdasarkan usianya 7. Implement the plan Setelah semua perencanaan pembuatan data warehouse telah siap, impelentasikan setiap bagian sebagai data mart untuk menunjukkan apa yang dapat dilakukan system tersebut. Setelah kita menyelesaikan setiap bagiannya, maka setiap bagian tersebut akan mudah dihubungkan. 7.3 OLAP Data Cube Operations Online Analytical Processing (OLAP) adalah multi-dimensional view dari sebuah data. OLAP membantu pengguna untuk mendapatkan pengetahuan dan pemahaman yang lebih luas tentang data perusahaan mereka melalui akses yang konsisten, cepat, dan interaktif ke berbagai tampilan data yang komprehensif. OLAP Data Cube adalah representasi data yang dapat dilihat dari berbagai dimensi. Bentuk kubus adalah representasi yang digunakan untuk view data yang dapat dilihat dari 3 dimensi yang berbeda. Berikut adalah contoh three-dimensional cube untuk sebuah data penjualan yang dapat dilihat dari tiga dimensi yaitu tipe produk, waktu penjualan yaitu quarter dalam tahun, dan lokasi penjualan yaitu kota. Sumber: Parteek, B. (2019). Data Mining and Data Warehousing: Principles and Practical Techniques. Cambridge University Press: United Kingdom. pp:423. OLAP Data Cube memiliki beberapa operasi yang dapat dilakukan untuk merubah view data. Beberapa operasi tersebut antara lain: • Roll-up Roll-up adalah operasi OLAP yang dilakukan untuk meningkatkan informasi yang didapatkan dari data ke level yang lebih abstract. Roll-up dapat dilakukan dengan mengurangi jumlah dimension atau meningkatkan hierarki data menjadi level yang lebih abstrak. Contoh operasi roll-up adalah meningkatkan hierarki data waktu (Time Dimension) dari Quarter menjadi Tahun. • Drill-down Drill-down adalah operasi OLAP yang dilakukan untuk meningkatkan hierarki data menjadi level yang lebih detail. Operasi drill-down bertolak belakang dengan operasi roll-up. Contoh operasi drill-down adalah meningkaykan hierarki data waktu (Time Dimension) dari Quarter menjadi Bulan. • Slice and Dice Slice adalah operasi OLAP yang membentuk sub-cube dari sebuah OLAP data cube dengan memilih satu dimension yang spesifik. Contoh slice operation dilakukan ketika user hanya butuh melihat data dari satu dimension waktu yaitu tahun 2020. Maka dilakukan slice yang menghasilkan two-dimensional view dari three dimensional berdasarkan dimension spesifik yang sudah ditentukan sebelumnya. Sedangkan Dice adalah operasi OLAP yang membentuk sub-cube dari OLAP data cube dengan memilih lebih dari satu dimension yang spesifik. Sehingga Dice tidak akan menghasilkan two dimensional view dari three dimensional. Contoh dice operations dilakukan ketika user butuh melihat dari data dari dua dimension waktu yaitu tahun 2020 dan 2019. Maka dilakukan dice yang menghasilkan sub cube berdasarkan dimension spesifik yang sudah di tentukan sebelumnya. • Pivot Pivot adalah operasi OLAP yang merubah atau merotasi sumbu data untuk menghasilkan tampilan data yang berbeda. Contoh terdapat two dimensional data dengan x axis adalah item type dan y axis adalah location, maka operasi Pivot akan menukan kedua axes tersebut dimana setelah dilakukan pivot operation kini x axes adalah location dan y axes adalah item types. 7.4 OLAP (ONLINE ANALYTICAL PROCESSING) OLAP atau Online Analytical Processing merupakan software yang menampilkan analisa multidimensional dari physical data store seperti data warehouse, data mart, ataupun centralized data store yang memiliki volume data yang sangat besar. Multidimensional model data memungkinkan dilakukannya analisis yang bersifat kompleks dan query khusus. OLAP menggabungkan informasi dari beberapa sistem dan membuat forecast atau prediksi. OLAP tidak hanya menyajikan pertanyaan operasional seperti apa dan siapa, tapi juga memungkinkan kita untuk mendapatkan jawaban dari suatu kondisi tertentu (what if). OLAP diaplikasikan diberbagai divisi di dalam perusahaan dengan tujuan yang berbedabeda seperti penggunaan OLAP di divisi marketing untuk melakukan sales forecasting dan promotion analysis, budgeting dan financial modeling pada divisi finance, serta perencanaan produk dan analisa kecacatan produk di divisi produksi. OLAP mempunyai beberapa fitur dan keunggulan seperti multidimensional data view, time intelligence dan bantuan kalkulasi yang kompleks, response time yang cepat dan interaktif, serta dapat digunakan untuk mengidentifikasi outliers dan cluster. Dimana hal tersebut memberikan keuntungan berupa peningkatan produktivitas dari enduser, mengurangi backlog dari application development untuk IT staff, peningkatan pendapatan, dan mengurangi lalu lintas jaringan pada data warehouse atau sistem OLTP. Multidimensional view of data dalam OLAP memudahkan proses analisa kompleks seperti pertanyaan akan rata-rata penjualan item di setiap kota berdasarkan kuartal dengan menaplikasikan aggregation pada kolom dan row terkait. Multidimensional data membentuk data cube yang terdiri dari dimension dan fact. Pada Oracle, implementasi multidimensional view didapatkan melalui SELECT…GROUP BY CUBE. Terdapat beberapa tipe OLAP system antara lain: ROLAP (Relational OLAP – Star Schema based), MOLAP (Multidimensional OLAP- Cube based), dan penggabungan keduanya yaitu HOLAP (Hybrid OLAP). Pada ROLAP,data tidak perlu disimpan secara multidimensi untuk dilihat secara multidimensi,melainkan cukup disimpan dalam relational database. ROLAP dapat menangani data dalam jumlah yang besar, namun sayangnya memiliki performa query yang rendah karena tidak adanya pre-computed data cube. Dalam implementasi ROLAP di Oracle, SQL statement yang digunakan ialah ROLLUP [extension of] GROUP BY [clause]. Sedangkan MOLAP melakukan penyimpanan data di dalam specialised multidimensional array structure yang memiliki alokasi linear. Berbeda dengan ROLAP yang hanya menyimpan non-zero fact, semua elemen array didefinisikan di dalam MOLAP sehingga membuat proses penyimpanan data menjadi tidak efektif. MOLAP juga tidak dapat menyimpan detail data. Namun, MOLAP memiliki keunggulan berupa proses query yang sederhana dan cepat karena semua penghitungan telah dibuat saat data cube dibuat. Penggabungan ROLAP dan MOLAP yaitu HOLAP, memungkinkan penyimpanan detail data dalam jumlah besar yang merupakan keunggulan ROLAP dan memanfaatkan teknologi data cube untuk kinerja yang lebih cepat. OLAP memiliki beberapa kemampuan operasi antara lain, roll-up, drill-down, slice and dice, serta Pivot (rotate). Roll-up menyediakan view data yang lebih luas. Roll-up digunakan unyuk menyediakan detail data pada level abstrak kepada user dengan menampilkan agregasi data yang dimensionnya telah direduksi atau dengan menaikkan hierarki dimension seperti dari kota menjadi negara. Drill-down merupakan kebalikan dari roll-up, dimana data view yang disediakan merupakan detailed data. Drill-down menyediakan informasi detail dengan menggunakan dimension baru atau dengan menuruni konsep hierarki dimension, seperti dari kuarter ke bulan. Slice and dice digunakan untuk menyajikan data dari perspektif yang berbeda. Slice operation memberikan sub-cube baru dengan memilih sebuah dimension dari sebuah cube secara spesifik, sehingga bisa dikatakan slice merupakan subset dari cube. Slice mengakibatkan terjadinya reduksi di dalam dimension, sehingga operation ini cocok digunakan saat user ingin memilih 1 dimensi dari three-dimensional cube, sehingga cube tersebut menjadi two-dimensional slice. Sedangkan dice merupakan opreation yang tidak mengurangi jumlah dimension, tapi justru menambah jumlah dimension. Dice operation memberikan sub-cube baru dengan memilih 2 atau lebih dimension dari sebuah cube. Terakhir ialah operasi Pivot atau yang disebut juga sebagai rotation. Operasi Pivot melakukan rotasi pada data axes pada view untuk mendapatkan presentasi lain dari data. Operasi ini dapat berupa menukar posisi kolom dan baris pada multidimensional data. Apa yang dimaksud dengan pemrosesan analitis online? Pemrosesan analitik online (OLAP) adalah teknologi perangkat lunak yang dapat Anda gunakan untuk menganalisis data bisnis dari sudut pandang yang berbeda. Organisasi mengumpulkan dan menyimpan data dari berbagai sumber data, seperti situs web, aplikasi, smart meter, dan sistem internal. OLAP menggabungkan dan mengelompokkan data ini ke dalam kategori untuk memberikan wawasan yang dapat ditindaklanjuti untuk perencanaan strategis. Misalnya, pengecer menyimpan data tentang semua produk yang dijualnya, seperti warna, ukuran, biaya, dan lokasi. Pengecer juga mengumpulkan data pembelian pelanggan, seperti nama barang yang dipesan dan total nilai penjualan, dalam sistem yang berbeda. OLAP menggabungkan kumpulan data untuk menjawab pertanyaan seperti produk warna mana yang lebih populer atau bagaimana penempatan produk berdampak pada penjualan. Mengapa OLAP penting? Pemrosesan analitis online (OLAP) membantu organisasi memproses dan mendapatkan manfaat dari makin banyaknya informasi digital. Beberapa manfaat OLAP meliputi hal berikut. Pengambilan keputusan lebih cepat Bisnis menggunakan OLAP untuk mengambil keputusan yang cepat dan akurat agar tetap kompetitif dalam ekonomi yang serbacepat. Melakukan kueri analitis di beberapa basis data relasional sangat memakan waktu karena sistem komputer mencari di beberapa tabel data. Di sisi lain, sistem OLAP menghitung dan mengintegrasikan data sehingga analis bisnis dapat menghasilkan laporan lebih cepat jika diperlukan. Dukungan pengguna nonteknis Sistem OLAP membuat analisis data yang kompleks lebih mudah bagi pengguna bisnis nonteknis. Pengguna bisnis dapat membuat perhitungan analitis yang kompleks dan menghasilkan laporan tanpa perlu mempelajari cara mengoperasikan basis data. Tampilan data terintegrasi OLAP menyediakan platform terpadu untuk pemasaran, keuangan, produksi, dan unit bisnis lainnya. Manajer dan pengambil keputusan dapat melihat gambaran yang lebih besar dan memecahkan masalah dengan efektif. Mereka dapat melakukan analisis what-if, yang menunjukkan dampak keputusan yang diambil oleh satu departemen di area bisnis lainnya. 7.3.1 Arsitektur OLAP? Sistem pemrosesan analitik online (OLAP) menyimpan data multidimensi dengan menunjukkan informasi dalam lebih dari dua dimensi, atau kategori. Data dua dimensi melibatkan kolom dan baris, tetapi data multidimensi memiliki beberapa karakteristik. Misalnya, data multidimensi untuk penjualan produk mungkin terdiri dari dimensi berikut: 1 Tipe produk 2 Lokasi 3 Waktu Rekayasawan data membangun sistem OLAP multidimensi yang terdiri dari elemen-elemen berikut. Gudang data Gudang data mengumpulkan informasi dari berbagai sumber, termasuk aplikasi, file, dan basis data. Ini memproses informasi menggunakan berbagai alat sehingga data siap untuk tujuan analitis. Misalnya, gudang data mungkin mengumpulkan informasi dari basis data relasional yang menyimpan data dalam tabel baris dan kolom. Alat ETL Alat extract, transform, and load (ETL) adalah proses basis data yang secara otomatis mengambil, mengubah, dan menyiapkan data ke format yang sesuai untuk tujuan analitis. Gudang data menggunakan ETL untuk mengonversi dan menstandardisasi informasi dari berbagai sumber sebelum membuatnya tersedia untuk alat OLAP. Server OLAP Server OLAP adalah mesin yang mendasari yang memberdayakan sistem OLAP. Server ini menggunakan alat ETL untuk mentransformasikan informasi dalam basis data relasional dan mempersiapkannya untuk operasional OLAP. Basis data OLAP Basis data OLAP adalah basis data terpisah yang terhubung ke gudang data. Rekayasawan data terkadang menggunakan basis data OLAP untuk mencegah gudang data dibebani oleh analisis OLAP. Mereka juga menggunakan basis data OLAP untuk memudahkan dalam membuat model data OLAP. Kubus OLAP Sebuah kubus data adalah model yang mewakili larik multidimensi informasi. Meski lebih mudah untuk memvisualisasikannya sebagai model data tiga dimensi, sebagian besar kubus data memiliki lebih dari tiga dimensi. Kubus OLAP, atau hypercube, adalah istilah untuk kubus data dalam sistem OLAP. Kubus OLAP kaku karena Anda tidak dapat mengubah dimensi dan data yang mendasarinya setelah Anda memodelnya. Misalnya, jika Anda menambahkan dimensi gudang ke kubus dengan dimensi produk, lokasi, dan waktu, Anda harus memodel ulang seluruh kubus. Alat analitik OLAP Analis bisnis menggunakan alat OLAP untuk berinteraksi dengan kubus OLAP. Mereka melakukan operasi seperti slicing, dicing, dan pivoting untuk mendapatkan wawasan yang lebih mendalam tentang informasi spesifik dalam kubus OLAP. Bagaimana cara kerja OLAP? Online analytical processing (sistem pemrosesan analitis online/OLAP) bekerja dengan mengumpulkan, menata, mengagregatkan, dan menganalisis data menggunakan langkah-langkah berikut: 1. Server OLAP mengumpulkan data dari berbagai sumber data, termasuk basis data relasional dan gudang data. 2. Kemudian, alat extract, transform, and load (ETL) membersihkan, mengagregatkan, menghitung di awal, dan menyimpan data dalam kubus OLAP sesuai jumlah dimensi yang ditentukan. 3. Analis bisnis menggunakan alat OLAP untuk mengkueri dan menghasilkan laporan dari data multidimensional di kubus OLAP. OLAP menggunakan Multidimensional Expressions (Ekspresi Multidimensional/MDX) untuk kueri kubus OLAP. MDX adalah kueri, seperti SQL, yang menyediakan satu set instruksi untuk memanipulasi basis data. 7.3.2 Tipe-tipe OLAP Sistem pemrosesan analitis online (OLAP) beroperasi dalam tiga cara utama. MOLAP Pemrosesan analitis online multidimensi (MOLAP) melibatkan pembuatan kubus data yang merepresentasikan data multidimensi dari gudang data. Sistem MOLAP menyimpan data yang dihitung di awal di hypercube. Rekayasawan data menggunakan MOLAP karena tipe teknologi OLAP ini memberikan analisis cepat. ROLAP Sebagai ganti menggunakan kubus data, relasional online analytical processing (pemrosesan analitis online relasional/ROLAP) memungkinkan rekyasawan data melakukan analisis data multidimensi di basis data relasional. Dengan kata lain, rekayasawan menggunakan kueri SQL untuk mencari dan mengambil informasi spesifik berdasarkan dimensi yang diperlukan. ROLAP cocok untuk menganalisis data yang luas dan terperinci. Namun, performa kueri ROLAP lamban jika dibandingkan dengan MOLAP. HOLAP Hybrid online analytical processing (pemrosesan analitis online hybrid/HOLAP) menggabungkan MOLAP dan ROLAP untuk memberikan yang terbaik dari kedua arsitektur tersebut. HOLAP memungkinkan rekayasawan data dengen cepat mengambil hasil analitis dari kubus data dan mengekstrasi informasi terperinci dari basis data relasional. 7.3.3 Pemodelan data di OLAP Pemodelan data adalah representasi data di gudang data atau basis data pemrosesan analitis online (OLAP). Pemodelan data sangat penting dalam pemrosesan analitis online relasional (ROLAP) karena menganalisis data langsung dari basis data relasional. Pemodelan ini menyimpan data multidimensi sebagai skema bintang atau kepingan salju. Skema bintang Skema bintang terdiri dari tabel fakta dan beberapa tabel dimensi. Tabel fakta adalah tabel data yang berisi nilai numerik yang terkait dengan proses bisnis, dan tabel dimensi berisi nilai-nilai yang menggambarkan setiap atribut dalam tabel fakta. Tabel fakta mengacu pada tabel dimensi dengan kunci asing—pengidentifikasi unik yang berkorelasi dengan informasi masing-masing dalam tabel dimensi. Dalam skema bintang, tabel fakta menghubungkan ke beberapa tabel dimensi sehingga model data terlihat seperti bintang. Berikut adalah contoh tabel fakta untuk penjualan produk: a. ID Produk b. ID Lokasi c. ID Tenaga Penjualan d. Nilai penjualan ID produk memberi tahu sistem basis data untuk mengambil informasi dari tabel dimensi produk, yang mungkin terlihat sebagai berikut: a. ID Produk b. Nama produk c. Tipe produk d. Biaya produk Demikian juga, ID lokasi menunjuk ke tabel dimensi lokasi, yang dapat terdiri dari hal berikut: a. ID Lokasi b. Negara c. Kota Tabel petugas penjualan mungkin terlihat sebagai berikut: a. ID Tenaga Penjualan b. Nama depan a. Nama belakang b. E-mail Skema kepingan salju Skema kepingan salju adalah perpanjangan dari skema bintang. Beberapa tabel dimensi mungkin mengarah ke satu atau lebih tabel dimensi sekunder. Ini menghasilkan bentuk kepingan salju seperti saat tabel dimensi disatukan. Misalnya, tabel dimensi produk mungkin berisi bidang-bidang berikut: a. ID Produk b. Nama produk c. ID tipe produk d. Biaya produk ID tipe produk terhubung ke tabel dimensi lain seperti yang ditunjukkan dalam contoh berikut: a. ID tipe produk b. Ketik nama c. Versi d. Varian 7.3.4 Operasi OLAP Analis bisnis melakukan beberapa operasi analitis dasar dengan kubus multidimensional online analytical processing (pemrosesan analitis online multidimensi/MOLAP). Agregasi Dalam agregasi, sistem pemrosesan analitis online (OLAP) merangkum data untuk atribut tertentu. Dengan kata lain, ini menunjukkan data yang kurang detail. Misalnya, Anda mungkin melihat penjualan produk menurut New York, California, London, dan Tokyo. Operasi agregasi akan memberikan tampilan data penjualan menurut negara, seperti AS, Inggris, dan Jepang. Penelusuran Penelusuran adalah kebalikan dari operasi agregasi. Analis bisnis bergerak ke bawah dalam hierarki konsep dan mengekstraksi detail yang mereka butuhkan. Misalnya, mereka dapat beralih dari melihat data penjualan per tahun ke memvisualisasikannya menurut bulan. Slice Rekayasawan data menggunakan operasi slice untuk membuat tampilan dua dimensi dari kubus OLAP. Misalnya, kubus MOLAP menyortir data menurut produk, kota, dan bulan. Dengan mengiris kubus, rekayasawan data dapat membuat tabel seperti spreadsheet yang terdiri dari produk dan kota untuk bulan tertentu. Dice Rekayasawan data menggunakan operasi dice untuk membuat subkubus yang lebih kecil dari kubus OLAP. Mereka menentukan dimensi yang dibutuhkan dan membangun kubus yang lebih kecil dari hypercube asli. Pivot Operasi pivot melibatkan memutar kubus OLAP di sepanjang salah satu dimensinya untuk mendapatkan perspektif yang berbeda di model data multidimensi. Misalnya, kubus OLAP tiga dimensi memiliki dimensi berikut di sumbu masing-masing: a. Sumbu X—produk b. Sumbu Y—lokasi c. Sumbu Z—waktu Setelah pivot, kubus OLAP memiliki konfigurasi berikut: a. Sumbu X—lokasi b. Sumbu Y—waktu c. Sumbu Z—produk 7.4 OLAP dibandingkan dengan metode analisis data lainnya Penambangan data Penambangan data adalah teknologi analitik yang memproses data historis dalam volume besar untuk menemukan pola dan wawasan. Analis bisnis menggunakan alat penambangan data untuk menemukan hubungan dalam data dan membuat prediksi tren masa depan yang akurat. OLAP dan penambangan data Pemrosesan analitis online (OLAP) adalah teknologi analisis basis data yang melibatkan mengkueri, mengkestraksi, dan mempelajari data yang dirangkum. Di sisi lain, penggalian data melibatkan melihat secara saksama ke dalam informasi yang belum diproses. Misalnya, tenaga pemasaran dapat menggunakan alat penambangan data untuk menganalisis perilaku pengguna dari catatan setiap kunjungan situs web. Mereka kemudian dapat menggunakan perangkat lunak OLAP untuk memeriksa perilaku tersebut dari berbagai sudut, seperti durasi, perangkat, negara, bahasa, dan tipe browser. OLTP Pemrosesan transaksi online (OLTP) adalah teknologi data yang menyimpan informasi dengan cepat dan andal dalam basis data. Rekayasawan data menggunakan alat OLTP untuk menyimpan data transaksional, seperti catatan keuangan, langganan layanan, dan umpan balik pelanggan, dalam basis data relasional. Sistem OLTP melibatkan pembuatan, memperbarui, dan menghapus catatan dalam tabel relasional. OLAP dan OLTP OLTP sangat bagus untuk menangani dan menyimpan beberapa aliran transaksi dalam basis data. Namun, opsi ini tidak dapat melakukan kueri kompleks dari basis data. Oleh karena itu, analis bisnis menggunakan sistem OLAP untuk menganalisis data multidimensi. Misalnya, ilmuwan data menghubungkan basis data OLTP ke kubus OLAP berbasis cloud untuk melakukan kueri intensif komputasi di data historis. 7.5 AWS membantu OLAP Basis data AWS menyediakan berbagai basis data cloud terkelola untuk membantu organisasi menyimpan dan melakukan operasi pemrosesan analitis online (OLAP). Analis data menggunakan basis data AWS untuk membangun basis data aman yang selaras dengan persyaratan organisasi mereka. Organisasi memigrasikan data bisnis mereka ke basis data AWS karena keterjangkauan dan skalabilitasnya. a. Amazon Redshift adalah gudang data cloud yang dirancang khusus untuk pemrosesan analitis online. b. Amazon Relational Database Service (Amazon RDS) adalah basis data relasional dengan fungsionalitas OLAP. Rekayasawan data menggunakan Amazon RDS dengan Oracle OLAP untuk melakukan kueri kompleks di kubus dimensi. c. Amazon Aurora adalah basis data relasional cloud yang kompatibel dengan MySQL dan PostgreSQL. Basis data ini dioptimalkan untuk menjalankan beban kerja OLAP kompleks. 7.6 Amazon Aurora Amazon Aurora (Aurora) adalah mesin basis data relasional yang dikelola sepenuhnya dan kompatibel dengan MySQL dan PostgreSQL. Anda sudah tahu bagaimana MySQL dan PostgreSQL menggabungkan kecepatan dan keandalan basis data komersial kelas atas dengan kesederhanaan dan efektivitas biaya basis data sumber terbuka. Kode, alat, dan aplikasi yang Anda gunakan saat ini dengan basis data MySQL dan PostgreSQL Anda yang sudah ada dapat digunakan dengan Aurora. Dengan sejumlah beban kerja, Aurora dapat memberikan hingga lima kali throughput MySQL dan hingga tiga kali throughput PostgreSQL tanpa memerlukan perubahan pada sebagian besar aplikasi Anda saat ini. Aurora mencakup subsistem penyimpanan performa tinggi. Mesin basis data-nya yang kompatibel dengan MySQL dan PostgreSQL disesuaikan untuk memanfaatkan penyimpanan terdistribusi cepat tersebut. Penyimpanan dasarnya meningkat secara otomatis sesuai kebutuhan. Volume klaster Aurora dapat bertambah ke ukuran maksimum 128 tebibyte (TiB). Aurora juga mengotomatiskan dan membakukan pengklasteran dan replikasi basis data, yang biasanya termasuk dalam aspek konfigurasi dan administrasi basis data yang paling menantang. Aurora adalah bagian dari layanan basis data terkelola Amazon Relational Database Service (Amazon RDS). Amazon RDS adalah layanan web yang memudahkan penyiapan, pengoperasian, dan penskalaan basis data relasional di cloud. Jika Anda belum memahami tentang Amazon RDS, lihat Panduan pengguna Amazon Relational Database Service. Untuk mempelajari lebih lanjut tentang berbagai opsi basis data yang tersedia di Amazon Web Services, lihat Memilih basis data yang tepat untuk organisasi Anda pada AWS. Model tanggung jawab bersama Amazon RDS Amazon RDS bertanggung jawab untuk menghosting komponen perangkat lunak dan infrastruktur instans DB dan klaster DB. Anda bertanggung jawab untuk penyetelan kueri, yang merupakan proses menyesuaikan kueri SQL untuk meningkatkan kinerja. Kinerja kueri sangat bergantung pada desain basis data, ukuran data, distribusi data, beban kerja aplikasi, dan pola kueri, yang dapat sangat bervariasi. Pemantauan dan penyetelan adalah proses yang sangat individual yang Anda miliki untuk basis data RDS Anda. Anda dapat menggunakan Wawasan Kinerja Amazon RDS dan alat lainnya untuk mengidentifikasi kueri bermasalah. Cara kerja Amazon Aurora dengan Amazon RDS Poin-poin berikut mengilustrasikan bagaimana Amazon Aurora berkaitan dengan mesin standar MySQL dan PostgreSQL yang tersedia di Amazon RDS: Anda memilih Aurora MySQL atau Aurora PostgreSQL sebagai opsi mesin DB saat mengatur server basis data baru melalui Amazon RDS. 2 Aurora memanfaatkan fitur Amazon Relational Database Service (Amazon RDS) yang sudah Anda ketahui untuk manajemen dan administrasi. Aurora menggunakan antarmuka Amazon RDS AWS Management Console, perintah AWS CLI, dan operasi API untuk menangani tugas basis data rutin seperti penyediaan, patching, pencadangan, pemulihan, deteksi kegagalan, dan perbaikan. 3 Operasi manajemen Aurora biasanya melibatkan seluruh klaster server basis data yang 1 disinkronkan melalui replikasi, bukan instans basis data secara individual. Pengklasteran, replikasi, dan alokasi penyimpanan otomatis membuatnya sederhana dan hemat biaya untuk mengatur, mengoperasikan, dan menskalakan deployment MySQL dan PostgreSQL terbesar Anda. 4 Anda dapat membawa data dari Amazon RDS for MySQL dan Amazon RDS for PostgreSQL ke Aurora dengan membuat dan memulihkan snapshot, atau dengan mengatur replikasi satu arah. Anda dapat menggunakan alat migrasi tombol-tekan untuk mengkonversi aplikasi RDS for MySQL dan RDS for PostgreSQL Anda saat ini ke Aurora. 7.6.1 Klaster DB Amazon Aurora Klaster DB Amazon Aurora terdiri dari satu atau beberapa instans DB dan sebuah volume klaster yang mengelola data untuk instans DB tersebut. Volume klaster Aurora adalah volume penyimpanan basis data virtual yang mencakup beberapa Zona Ketersediaan, dengan masingmasing Zona Ketersediaan memiliki salinan data klaster DB. Ada dua jenis instans DB yang membentuk klaster DB Aurora: 1 Instans DB primer – Mendukung operasi baca dan tulis, serta melakukan semua modifikasi data pada volume klaster. Setiap klaster DB Aurora memiliki satu instans DB primer. 2 Replika Aurora – Menghubungkan ke volume penyimpanan yang sama seperti instans DB primer dan mendukung operasi hanya baca. Setiap klaster DB Aurora dapat memiliki hingga 15 Replika Aurora di samping instans DB primer. Ketersediaan tinggi dipertahankan dengan menempatkan Replika Aurora di Zona Ketersediaan terpisah. Aurora secara otomatis melakukan failover ke sebuah Replika Aurora jika instans DB primer tidak tersedia. Anda dapat menentukan prioritas failover untuk Replika Aurora. Replika Aurora juga dapat mengalihkan beban kerja baca dari instans DB primer. Diagram berikut mengilustrasikan relasi antara volume klaster, instans DB primer, dan Replika Aurora dalam klaster DB Aurora. catatan Informasi di atas berlaku untuk klaster terprovisi, klaster kueri paralel, klaster basis data global, klaster Aurora Serverless, dan semua klaster yang kompatibel dengan MySQL 8.0, 5.7, dan PostgreSQL. Klaster Aurora mengilustrasikan pemisahan kapasitas komputasi dan penyimpanan. Misalnya, sebuah konfigurasi Aurora yang hanya memiliki satu instans DB tetap disebut sebagai klaster karena volume penyimpanan dasarnya memerlukan beberapa simpul penyimpanan yang didistribusikan ke beberapa Zona Ketersediaan (AZ). Operasi input/output (I/O) di klaster DB Aurora dihitung dengan cara yang sama, terlepas dari apakah klaster tersebut berada di instans DB penulis atau pembaca. Untuk informasi selengkapnya, lihat Konfigurasi penyimpanan untuk klaster DB Amazon Aurora. 7.6.2 Versi Amazon Aurora Amazon Aurora menggunakan kembali kode dan mempertahankan kompatibilitas dengan mesin DB MySQL dan PostgreSQL yang mendasarinya. Namun, Aurora memiliki atribut sendiri seperti nomor versi, siklus rilis, jadwal penghentian versi, dan sebagainya. Bagian berikut menjelaskan poin-poin umum dan perbedaannya. Informasi ini dapat membantu Anda memutuskan hal-hal seperti versi mana yang akan dipilih dan cara memverifikasi fitur dan perbaikan mana yang tersedia di setiap versi. Hal ini juga dapat membantu Anda memutuskan seberapa sering upgrade dilakukan dan bagaimana rencana proses upgrade Anda. 7.6.3 Basis data relasional yang tersedia di Aurora Basis data relasional berikut tersedia di Aurora: 1 2 Amazon Aurora MySQL-Compatible Edition. Untuk informasi penggunaan, lihat Menggunakan Amazon Aurora MySQL. Untuk daftar lengkap versi yang tersedia, lihat Pembaruan mesin basis data untuk Amazon Aurora MySQL. Amazon Aurora PostgreSQL-Compatible Edition. Untuk informasi penggunaan, lihat Menggunakan Amazon Aurora PostgreSQL. Untuk daftar lengkap versi yang tersedia, lihat Pembaruan Amazon Aurora PostgreSQL. 7.6.4 Menggunakan Amazon Aurora MySQL Amazon Aurora MySQL adalah mesin basis data relasional yang terkelola sepenuhnya dan kompatibel dengan MySQL. Mesin basis data ini menggabungkan kecepatan dan keandalan basis data komersial kelas atas dengan kesederhanaan dan efektivitas biaya basis data sumber terbuka. Aurora MySQL adalah pengganti "drop-in" untuk MySQL serta memudahkan dan menghemat biaya untuk menyiapkan, mengoperasikan, dan menskalakan deployment MySQL baru dan yang sudah ada, sehingga Anda bebas untuk fokus pada bisnis dan aplikasi Anda. Amazon RDS menyediakan administrasi untuk Aurora dengan menangani tugas basis data rutin seperti penyediaan, patching, pencadangan, pemulihan, deteksi kegagalan, dan perbaikan. Amazon RDS juga menyediakan alat migrasi yang memerlukan hanya beberapa klik untuk mengonversi aplikasi Amazon RDS for MySQL Anda yang ada menjadi aplikasi Aurora MySQL. Peningkatan performa Amazon Aurora MySQL Amazon Aurora menyediakan peningkatan performa untuk mendukung beragam kebutuhan basis data komersial kelas atas. Penyisipan cepat Penyisipan cepat mempercepat penyisipan paralel yang diurutkan berdasarkan kunci primer dan berlaku khusus untuk pernyataan LOAD DATA dan INSERT INTO ... SELECT .... Sisipkan cache dengan cepat ke posisi kursor dalam sebuah traversal indeks sambil mengeksekusi pernyataan. Hal ini membantu agar indeks tidak perlu di-traversing lagi. Penyisipan cepat diaktifkan hanya untuk tabel InnoDB biasa di Aurora MySQL versi 3.03.2 dan lebih tinggi. Pengoptimalan ini tidak berfungsi untuk tabel sementara InnoDB. Ini dinonaktifkan di Aurora MySQL versi 2 untuk semua versi 2.11 dan 2.12. Pengoptimalan sisipan cepat hanya berfungsi jika optimasi Indeks Hash Adaptif dinonaktifkan. Anda dapat memantau metrik berikut untuk menentukan efektivitas penyisipan cepat untuk klaster DB Anda: 1 2 aurora_fast_insert_cache_hits: Penghitung yang bertambah saat kursor yang di-cache berhasil diambil dan diverifikasi. aurora_fast_insert_cache_misses: Penghitung yang bertambah ketika kursor yang di-cache tidak lagi valid dan Aurora melakukan traversal indeks normal. Anda dapat mengambil nilai saat ini dari metrik penyisipan cepat dengan menggunakan perintah berikut: mysql> show global status like 'Aurora_fast_insert%'; Anda akan mendapatkan output seperti yang berikut ini: +---------------------------------+-----------+ | Variable_name | Value | +---------------------------------+-----------+ | Aurora_fast_insert_cache_hits | 3598300 | | Aurora_fast_insert_cache_misses | 436401336 | +---------------------------------+-----------+ 7.Amazon Aurora MySQL dan data spasial Daftar berikut merangkum fitur spasial Aurora MySQL utama dan menjelaskan bagaimana fitur tersebut terkait dengan fitur spasial di MySQL: 1 Aurora MySQL versi 2 mendukung jenis data spasial dan fungsi relasi spasial yang sama dengan MySQL 5.7. Untuk informasi selengkapnya tentang jenis dan fungsi data ini, lihat Spatial Data Types dan Spatial Relation Functions dalam dokumentasi MySQL 5.7. 2 Aurora MySQL versi 3 mendukung jenis data spasial dan fungsi relasi spasial yang sama dengan MySQL 8.0. Untuk informasi selengkapnya tentang jenis dan fungsi data ini, lihat Spatial Data Types dan Spatial Relation Functions dalam dokumentasi MySQL 8.0. 3 Aurora MySQL mendukung pengindeksan spasial pada tabel InnoDB. Pengindeksan spasial meningkatkan performa kueri pada set data besar untuk kueri pada data spasial. Di MySQL, pengindeksan spasial untuk tabel InnoDB tersedia di MySQL 5.7 dan 8.0. 4 Aurora MySQL menggunakan strategi pengindeksan spasial yang berbeda dari MySQL untuk performa tinggi dengan kueri spasial. Implementasi indeks spasial Aurora menggunakan kurva pengisian ruang pada B-tree, yang ditujukan untuk memberikan performa yang lebih tinggi untuk pemindaian rentang spasial daripada R-tree. catatan Di Aurora MySQL, transaksi pada tabel dengan indeks spasial yang ditentukan pada kolom dengan pengidentifikasi referensi spasial (SRID) tidak dapat melakukan penyisipan ke area yang dipilih untuk diperbarui oleh transaksi lain. Pernyataan bahasa definisi data (DDL) berikut didukung untuk membuat indeks pada kolom yang menggunakan jenis data spasial. CREATE TABLE Anda dapat menggunakan kata kunci SPATIAL INDEX dalam pernyataan CREATE TABLE untuk menambahkan indeks spasial ke kolom di tabel baru. Berikut adalah contohnya. CREATE TABLE test (shape POLYGON NOT NULL, SPATIAL INDEX(shape)); ALTER TABLE Anda dapat menggunakan kata kunci SPATIAL INDEX dalam pernyataan ALTER TABLE untuk menambahkan indeks spasial ke kolom dalam tabel yang ada. Berikut adalah contohnya. ALTER TABLE test ADD SPATIAL INDEX(shape); CREATE INDEX Anda dapat menggunakan kata kunci SPATIAL dalam pernyataan CREATE INDEX untuk menambahkan indeks spasial ke kolom dalam tabel yang ada. Berikut adalah contohnya. CREATE SPATIAL INDEX shape_index ON test (shape); 7.6.5 Aurora MySQL versi 3 yang kompatibel dengan MySQL 8.0 Anda dapat menggunakan Aurora MySQL versi 3 untuk mendapatkan fitur terbaru yang kompatibel dengan MySQL, peningkatan performa, dan perbaikan bug. Di bagian berikut ini, Anda dapat mempelajari tentang Aurora MySQL versi 3, dengan kompatibilitas MySQL 8.0. Anda dapat mempelajari cara meng-upgrade klaster dan aplikasi Anda ke Aurora MySQL versi 3. Beberapa fitur Aurora, seperti Aurora Serverless v2, memerlukan Aurora MySQL versi 3. 7.6.6 Fitur dari MySQL 8.0 Community Edition Rilis awal Aurora MySQL versi 3 kompatibel dengan MySQL 8.0.23 Community Edition. MySQL 8.0 memperkenalkan beberapa fitur baru, termasuk yang berikut: 1 2 3 4 Fungsi JSON. Untuk informasi penggunaan, lihat JSON Functions dalam Panduan Referensi MySQL. Fungsi Jendela. Untuk informasi penggunaan, lihat Window Functions dalam Panduan Referensi MySQL. Ekspresi tabel umum (CTE), yang menggunakan klausa WITH. Untuk informasi penggunaan, lihat WITH (Common Table Expressions) dalam Panduan Referensi MySQL. Klausa ADD COLUMN dan RENAME COLUMN yang dioptimalkan untuk pernyataan ALTER TABLE. Optimisasi ini disebut “DDL instan”. Aurora MySQL versi 3 5 6 7 8 9 kompatibel dengan fitur DDL instan MySQL komunitas. Fitur DDL cepat Aurora sebelumnya tidak digunakan. Untuk informasi penggunaan untuk DDL instan, lihat DDL instan (Aurora MySQL versi 3). Indeks menurun, fungsional, dan tidak terlihat. Untuk informasi penggunaan, lihat Invisible Indexes, Descending Indexes, dan CREATE INDEX Statement dalam Panduan Referensi MySQL. Hak akses berbasis peran yang dikontrol melalui pernyataan SQL. Untuk informasi selengkapnya tentang perubahan pada model hak akses, lihat Model hak akses berbasis peran. Klausa NOWAIT dan SKIP LOCKED dengan pernyataan SELECT ... FOR SHARE. Klausa ini menghindari tindakan menunggu transaksi lain untuk membuka kunci baris. Untuk informasi penggunaan, lihat Locking Reads dalam Panduan Referensi MySQL. Peningkatan pada replikasi log biner (binlog). Untuk detail Aurora MySQL, lihat Replikasi log biner. Khususnya, Anda dapat melakukan replikasi yang difilter. Untuk informasi penggunaan tentang replikasi yang difilter, lihat How Servers Evaluate Replication Filtering Rules dalam Panduan Referensi MySQL. Petunjuk. Beberapa petunjuk yang kompatibel dengan MySQL 8.0 sudah di-backport ke Aurora MySQL versi 2. Untuk informasi tentang menggunakan petunjuk dengan Aurora MySQL, lihat Petunjuk Aurora MySQL. Untuk daftar lengkap petunjuk di MySQL 8.0 komunitas, lihat Optimizer Hints dalam Panduan Referensi MySQL. Untuk daftar lengkap fitur yang ditambahkan ke MySQL 8.0 edisi komunitas, lihat postingan blog Daftar lengkap fitur baru di MySQL 8.0. Aurora MySQL versi 3 juga mencakup perubahan kata kunci untuk bahasa inklusif, yang di-backport dari MySQL 8.0.26 komunitas. Untuk detail tentang perubahan tersebut, lihat Perubahan bahasa inklusif untuk Aurora MySQL versi 3. Prasyarat Aurora MySQL versi 3 untuk Aurora MySQL Serverless v2 Aurora MySQL versi 3 adalah prasyarat untuk semua instans DB di klaster Aurora MySQL Serverless v2. Aurora MySQL Serverless v2 mencakup dukungan untuk instans pembaca dalam klaster DB, dan fitur Aurora lainnya yang tidak tersedia untuk Aurora MySQL Serverless v1. Layanan ini juga memiliki penskalaan yang lebih cepat dan lebih granular daripada Aurora MySQL Serverless v1. Catatan rilis untuk Aurora MySQL versi 3 Untuk catatan rilis untuk semua rilis Aurora MySQL versi 3, lihat Pembaruan mesin basis data untuk Amazon Aurora MySQL versi 3 dalam Catatan Rilis untuk Aurora MySQL. Optimisasi kueri paralel baru Optimisasi kueri pararel Aurora sekarang berlaku untuk lebih banyak operasi SQL: 1 Kueri pararel sekarang berlaku untuk tabel yang berisi jenis data TEXT, BLOB, JSON, GEOMETRY, serta VARCHAR dan CHAR yang lebih panjang dari 768 byte. 2 Kueri paralel dapat mengoptimalkan kueri yang memerlukan tabel yang dipartisi. 3 Kueri paralel dapat mengoptimalkan kueri yang memerlukan panggilan fungsi agregat dalam daftar pilih dan klausa HAVING. 4 Untuk informasi selengkapnya tentang peningkatan ini, lihat Meningkatkan klaster kueri paralel ke Aurora MySQL versi 3. Untuk informasi umum tentang kueri paralel Aurora, lihat Bekerja dengan kueri paralel untuk Amazon Aurora MySQL. Optimisasi untuk mengurangi waktu pengaktifan ulang basis data. Klaster DB Aurora MySQL Anda harus memiliki ketersediaan tinggi selama pemadaman yang direncanakan dan tidak direncanakan. Administrator basis data perlu melakukan pemeliharaan basis data sesekali. Pemeliharaan ini mencakup patching basis data, upgrade, modifikasi parameter basis data yang memerlukan boot ulang manual, pelaksanaan failover untuk mengurangi waktu yang diperlukan dalam mengubah kelas instans, dan sebagainya. Tindakan yang direncanakan ini membutuhkan waktu henti. Namun, waktu henti juga dapat disebabkan oleh tindakan yang tidak direncanakan, seperti failover yang tidak terduga karena kesalahan perangkat keras yang mendasarinya atau throttling sumber daya basis data. Semua tindakan yang direncanakan dan tidak direncanakan ini mengakibatkan pengaktifan ulang basis data. Di Aurora MySQL versi 3.05 dan lebih tinggi, kami telah memperkenalkan optimisasi yang mengurangi waktu pengaktifan ulang basis data. Optimisasi ini memberikan waktu henti hingga 65% lebih sedikit daripada tanpa optimisasi, dan lebih sedikit gangguan pada beban kerja basis data Anda, setelah pengaktifan ulang. Selama pengaktifan basis data, banyak komponen memori internal yang diinisialisasi. Yang terbesar adalah pool buffer InnoDB, yang di Aurora MySQL adalah 75% dari ukuran memori instans secara default. Pengujian kami telah menemukan bahwa waktu inisialisasinya sebanding dengan ukuran pool buffer InnoDB, dan oleh karena itu, akan diskalakan dengan ukuran kelas instans DB. Selama tahap inisialisasi ini, basis data tidak dapat menerima koneksi, sehingga memperpanjang waktu henti selama pengaktifan ulang. Tahap pertama dari pengaktifan ulang cepat Aurora MySQL akan mengoptimalkan inisialisasi pool buffer, yang mengurangi waktu untuk inisialisasi basis data dan dengan demikian akan mengurangi waktu pengaktifan ulang secara keseluruhan. 7.7 Memperbarui aplikasi untuk terhubung ke klaster DB Aurora MySQL menggunakan sertifikat TLS baru Sejak 13 Januari 2023, Amazon RDS telah menerbitkan serifikat Otoritas Sertifikat (CA) baru untuk terhubung ke klaster DB Aurora menggunakan Keamanan Lapisan Pengangkutan (TLS). Setelah itu, Anda dapat menemukan informasi tentang pembaruan aplikasi untuk menggunakan sertifikat baru. Topik ini dapat membantu Anda menentukan apakah aplikasi klien menggunakan TLS untuk terhubung ke klaster DB Anda. Jika demikian, Anda dapat memeriksa lebih lanjut apakah aplikasi tersebut memerlukan verifikasi sertifikat untuk terhubung. catatan Beberapa aplikasi dikonfigurasi untuk terhubung ke klaster DB Aurora MySQL hanya jika aplikasi tersebut berhasil memverifikasi sertifikat pada server. Untuk aplikasi tersebut, Anda harus memperbarui penyimpanan kepercayaan aplikasi klien untuk menyertakan sertifikat CA baru. Setelah memperbarui sertifikat CA di penyimpanan kepercayaan aplikasi klien, Anda dapat merotasi sertifikat di klaster DB Anda. Sebaiknya Anda menguji prosedur ini di lingkungan pengembangan dan penahapan sebelum menerapkannya di lingkungan produksi Anda. Untuk informasi selengkapnya tentang rotasi sertifikat, lihat Merotasi sertifikat SSL/TLS. Untuk informasi selengkapnya tentang cara mengunduh sertifikat, lihat Menggunakan SSL/TLS untuk mengenkripsi koneksi ke klaster DB. Untuk informasi tetang cara menggunakan TLS dengan klaster DB Aurora MySQL, lihat Menggunakan TLS dengan klaster DB Aurora MySQL. 7.8 Menggunakan autentikasi Kerberos untuk Aurora MySQL Anda dapat menggunakan autentikasi Kerberos untuk mengautentikasi pengguna saat mereka terhubung ke klaster DB Aurora MySQL Anda. Untuk melakukannya, lakukan konfigurasi klaster DB Anda agar menggunakan AWS Directory Service for Microsoft Active Directory untuk autentikasi Kerberos. AWS Directory Service for Microsoft Active Directory juga disebut AWS Managed Microsoft AD. Ini adalah fitur yang tersedia dengan AWS Directory Service. Untuk mempelajari selengkapnya, lihat Apa itu AWS Directory Service? di dalam Panduan Administrasi AWS Directory Service. Untuk memulai, buat direktori AWS Managed Microsoft AD untuk menyimpan kredensial pengguna. Kemudian, berikan domain Active Directory dan informasi lainnya ke klaster DB Aurora MySQL Anda. Saat pengguna mengautentikasi dengan klaster DB Aurora MySQL, permintaan autentikasi diteruskan ke direktori AWS Managed Microsoft AD. Menyimpan semua kredensial Anda di direktori yang sama dapat menghemat waktu dan tenaga Anda. Dengan pendekatan ini, Anda memiliki sebuah lokasi terpusat untuk menyimpan dan mengelola kredensial bagi beberapa klaster DB. Menggunakan direktori juga dapat meningkatkan profil keamanan keseluruhan Anda. Selain itu, Anda dapat mengakses kredensial dari Microsoft Active Directory on-premise Anda sendiri. Untuk melakukannya, buat hubungan domain tepercaya sehingga direktori AWS Managed Microsoft AD mempercayai Microsoft Active Directory on-premise Anda. Dengan cara ini, pengguna Anda dapat mengakses klaster DB Aurora MySQL Anda dengan pengalaman masuk tunggal (SSO) Windows yang sama seperti ketika mereka mengakses beban kerja di jaringan onpremise Anda. Basis data dapat menggunakan Kerberos, AWS Identity and Access Management (IAM), atau autentikasi Kerberos dan IAM. Namun, karena autentikasi Kerberos dan IAM menyediakan metode autentikasi yang berbeda, pengguna tertentu dapat login ke basis data hanya menggunakan salah satu metode autentikasi, dan tidak bisa keduanya. Untuk informasi selengkapnya tentang autentikasi IAM, lihat Autentikasi basis data IAM. Ikhtisar autentikasi Kerberos untuk klaster DB Aurora MySQL Untuk menyiapkan autentikasi Kerberos untuk klaster DB Aurora MySQL, selesaikan langkahlangkah umum berikut. Langkah ini dijelaskan secara lebih mendetail nanti. 1. Gunakan AWS Managed Microsoft AD untuk membuat direktori AWS Managed Microsoft AD. Anda dapat menggunakan AWS Management Console, AWS CLI, atau AWS Directory Service untuk membuat direktori. Untuk petunjuk mendetail, lihat Membuat direktori AWS Managed Microsoft AD Anda di Panduan AdministrasiAWS Directory Service. 2. Buat peran AWS Identity and Access Management (IAM) yang menggunakan kebijakan IAM terkelola AmazonRDSDirectoryServiceAccess. Peran ini memungkinkan Amazon Aurora untuk melakukan panggilan ke direktori Anda. Agar peran dapat mengizinkan akses, titik akhir AWS Security Token Service (AWS STS) harus diaktifkan di Wilayah AWS untuk akun AWS Anda. Titik akhir AWS STS aktif secara default di semua Wilayah AWS, dan Anda dapat menggunakannya tanpa tindakan lebih lanjut. Lihat informasi yang lebih lengkap di Mengaktifkan dan menonaktifkan AWS STS di Wilayah AWS dalam Panduan Pengguna IAM. 3. Buat dan konfigurasikan pengguna dalam direktori AWS Managed Microsoft AD dengan menggunakan alat Microsoft Active Directory. Untuk informasi selengkapnya tentang membuat pengguna di Active Directory Anda, lihat Mengelola pengguna dan grup di Microsoft AD yang dikelola AWS di Panduan Administrasi AWS Directory Service. 4. Buat atau modifikasi klaster DB Aurora MySQL. Jika Anda menggunakan CLI atau API RDS dalam permintaan pembuatan, tentukan pengidentifikasi domain dengan parameter Domain. Gunakan pengidentifikasi d-* yang dihasilkan saat Anda membuat direktori Anda dan nama peran IAM yang Anda buat. Jika Anda memodifikasi klaster DB Aurora MySQL yang sudah ada untuk menggunakan autentikasi Kerberos, atur domain dan parameter peran IAM untuk klaster DB. Cari klaster DB di dalam VPC yang sama dengan direktori domain. 5. Gunakan kredensial pengguna primer Amazon RDS untuk terhubung ke klaster DB Aurora MySQL. Buat pengguna basis data di Aurora MySQL dengan menggunakan instruksi di Langkah 6: Buat pengguna MySQL Aurora yang menggunakan autentikasi Kerberos. Pengguna yang Anda buat dengan cara ini dapat login ke klaster DB Aurora MySQL menggunakan autentikasi Kerberos. Untuk informasi selengkapnya, lihat Membuat koneksi dengan Aurora MySQL lewat autentikasi Kerberos. Untuk menggunakan autentikasi Kerberos dengan Microsoft Active Directory on-premise atau yang di-host mandiri, buat sebuah trust forest. Trust forest adalah hubungan kepercayaan antara dua kelompok domain. Kepercayaan bisa satu arah atau dua arah. Untuk informasi selengkapnya tentang menyiapkan trust forest menggunakan AWS Directory Service, lihat Kapan membuat hubungan kepercayaan dalam Panduan Administrasi AWS Directory Service. 7.9 Batasan autentikasi Kerberos untuk Aurora MySQL Pembatasan berikut ini berlaku untuk autentikasi Kerberos untuk Aurora MySQL: 1 Autentikasi Kerberos didukung untuk Aurora MySQL versi 3.03 dan lebih tinggi. 2 Untuk informasi tentang dukungan Wilayah AWS, lihat Autentikasi Kerberos dengan Aurora MySQL. 3 Untuk menggunakan autentikasi Kerberos dengan Aurora MySQL, klien atau konektor MySQL Anda harus menggunakan versi 8.0.26 atau lebih tinggi pada platform Unix, 8.0.27 atau lebih tinggi di Windows. Jika tidak, plugin authentication_kerberos_client sisi klien tidak tersedia dan Anda tidak dapat mengautentikasi. 4 Hanya AWS Managed Microsoft AD yang didukung di Aurora MySQL. Namun, Anda dapat menggabungkan klaster DB Aurora MySQL ke domain Microsoft AD Terkelola bersama yang dimiliki oleh akun-akun yang berbeda di dalam Wilayah AWS yang sama. 5 Anda juga dapat menggunakan Active Directory on-premise Anda sendiri. Untuk informasi selengkapnya, lihat Langkah 2: (Opsional) Buat kepercayaan untuk Active Directory on-premise 6 Saat menggunakan Kerberos untuk mengautentikasi pengguna yang terhubung ke klaster Aurora MySQL dari klien MySQL atau dari driver pada sistem operasi Windows, secara default huruf besar/kecil karakter nama pengguna basis data harus sesuai dengan huruf besar/kecil pengguna di Active Directory. Misalnya, jika pengguna di Active Directory muncul sebagai Admin, nama pengguna basis data harus Admin. 7 Namun, Anda sekarang dapat menggunakan perbandingan nama pengguna yang tidak peka huruf besar/kecil dengan plugin authentication_kerberos. Untuk informasi selengkapnya, lihat Langkah 8: (Opsional) Lakukan konfigurasi perbandingan nama pengguna yang tidak peka huruf besar/kecil. 8 Anda harus melakukan boot ulang instans DB pembaca setelah mengaktifkan fitur untuk menginstal plugin authentication_kerberos. 9 Replikasi ke instans DB yang tidak mendukung plugin authentication_kerberos dapat menyebabkan kegagalan replikasi. 10 Agar basis data global Aurora dapat menggunakan autentikasi Kerberos, Anda harus mengonfigurasinya untuk setiap klaster DB di dalam basis data global. 11 Nama domain harus kurang dari 62 karakter. 12 Jangan memodifikasi port klaster DB setelah mengaktifkan autentikasi Kerberos. Jika Anda memodifikasi port, autentikasi Kerberos tidak akan berfungsi lagi. Praktikum 1. Install Aws Quora Menyiapkan lingkungan Anda untuk Amazon Aurora Sebelum Anda menggunakan Amazon Aurora untuk pertama kali, selesaikan tugastugas berikut. Topik 1 Mendaftar Akun AWS 2 Membuat pengguna administratif 3 Memberikan akses terprogram 4 Menentukan persyaratan 5 Berikan akses ke klaster DB dalam VPC dengan membuat grup keamanan Jika sudah memiliki Akun AWS, mengetahui persyaratan Aurora Anda, dan lebih memilih menggunakan default untuk grup keamanan IAM dan VPC, Anda dapat langsung beralih ke Memulai dengan Amazon Aurora. Mendaftar Akun AWS Jika Anda tidak memiliki Akun AWS, selesaikan langkah-langkah berikut untuk membuatnya. Untuk mendaftar Akun AWS 1. Buka https://portal.aws.amazon.com/billing/signup. 2. Ikuti petunjuk secara online. Anda akan diminta untuk menerima panggilan telepon dan memasukkan kode verifikasi pada keypad telepon sebagai bagian dari prosedur pendaftaran. Saat Anda mendaftar Akun AWS, Pengguna root akun AWS akan dibuat. Pengguna root memiliki akses ke semua Layanan AWS dan sumber daya dalam akun. Sebagai praktik terbaik keamanan, tetapkan akses administratif ke pengguna administratif, dan hanya gunakan pengguna root untuk melakukan tugas yang memerlukan akses pengguna root. AWS akan mengirimkan email konfirmasi kepada Anda setelah proses pendaftaran selesai. Anda dapat melihat aktivitas akun saat ini dan mengelola akun dengan mengunjungi https://aws.amazon.com/ dan memilih Akun Saya. Membuat pengguna administratif Setelah mendaftar Akun AWS, amankan Pengguna root akun AWS, aktifkan AWS IAM Identity Center, dan buat sebuah pengguna administratif sehingga Anda tidak menggunakan pengguna root untuk tugas sehari-hari. Mengamankan Pengguna root akun AWS Anda 1. Masuk ke AWS Management Console sebagai pemilik akun dengan memilih Pengguna root dan memasukkan alamat email Akun AWS Anda. Di halaman berikutnya, masukkan kata sandi Anda. Untuk bantuan masuk menggunakan pengguna root, lihat Masuk sebagai pengguna root dalam Panduan Pengguna AWS Sign-In. 2. Aktifkan autentikasi multi-faktor (MFA) untuk pengguna root Anda. Untuk petunjuknya, silakan lihat Mengaktifkan perangkat MFA virtual untuk pengguna root Akun AWS Anda (konsol) dalam Panduan Pengguna IAM. Membuat pengguna administratif 1. Aktifkan Pusat Identitas IAM. Untuk mendapatkan petunjuk, silakan lihat Mengaktifkan AWS IAM Identity Center di Panduan Pengguna AWS IAM Identity Center. 2. Di Pusat Identitas IAM, berikan akses administratif ke sebuah pengguna administratif. Untuk mendapatkan tutorial tentang menggunakan Direktori Pusat Identitas IAM sebagai sumber identitas Anda, silakan lihat Mengonfigurasi akses pengguna dengan Direktori Pusat Identitas IAM default di Panduan Pengguna AWS IAM Identity Center. Masuk sebagai pengguna administratif • Untuk masuk dengan pengguna Pusat Identitas IAM, gunakan URL masuk yang dikirim ke alamat email Anda saat Anda membuat pengguna Pusat Identitas IAM. Untuk bantuan masuk menggunakan pengguna Pusat Identitas IAM, lihat Masuk ke portal akses AWS dalam Panduan Pengguna AWS Sign-In. Memberikan akses terprogram Pengguna membutuhkan akses terprogram jika mereka ingin berinteraksi dengan AWS luar dari AWS Management Console. Cara memberikan akses terprogram bergantung pada jenis pengguna yang mengakses AWS. Untuk memberi pengguna akses terprogram, pilih salah satu opsi berikut. Pengguna mana Untuk Oleh Gunakan kredensial Mengikuti petunjuk untuk antarmuka yang ingin Anda gunakan. yang membutuhkan akses terprogram? Identitas tenaga kerja sementara untuk menandatangani (Pengguna yang dikelola di Pusat Identitas IAM) permintaan terprogram ke AWS CLI, SDK AWS, atau API • AWS. • IAM Untuk AWS CLI, lihat Mengonfigurasi AWS CLI untuk menggunakan AWS IAM Identity Center di Panduan Pengguna AWS Command Line Interface. Untuk SDK AWS, alat, dan API AWS, lihat Autentikasi Pusat Identitas IAM di Panduan Referensi SDK dan Alat AWS. Gunakan kredensial Mengikuti petunjuk sementara untuk dalam Menggunakan kredensial menandatangani sementara dengan sumber daya permintaan terprogram ke AWS di Panduan Pengguna IAM. AWS CLI, SDK AWS, atau API AWS. Pengguna mana Untuk Oleh (Tidak direkomendasikan) Mengikuti petunjuk untuk antarmuka yang ingin Anda gunakan. yang membutuhkan akses terprogram? IAM Gunakan kredensial jangka panjang untuk menandatangani permintaan terprogram ke • AWS CLI, SDK AWS, atau API Untuk AWS CLI, lihat Mengautentikasi menggunakan kredensial pengguna IAM di Panduan AWS. • • Pengguna AWS Command Line Interface. Untuk SDK dan alat AWS, lihat Mengautentikasi menggunakan kredensial jangka panjang di Panduan Referensi SDK dan Alat AWS. Untuk API AWS, lihat Mengelola kunci akses untuk pengguna IAM di Panduan Pengguna IAM. Menentukan persyaratan Blok bangunan dasar Aurora adalah klaster DB. Klaster DB dapat berisi satu atau beberapa instans DB. Klaster DB menyediakan alamat jaringan yang disebut titik akhir klaster. Aplikasi Anda terhubung ke titik akhir klaster yang dibuka oleh klaster DB kapan pun aplikasi tersebut perlu mengakses basis data yang dibuat dalam klaster DB tersebut. Informasi yang Anda tentukan saat membuat elemen konfigurasi kontrol klaster DB seperti memori, mesin dan versi basis data, konfigurasi jaringan, keamanan, serta periode pemeliharaan. Sebelum membuat grup keamanan dan klaster DB, Anda harus mengetahui klaster DB dan kebutuhan jaringan Anda. Berikut beberapa hal penting yang perlu dipertimbangkan: • • o o o o o o o • Kebutuhan sumber daya – Apa saja kebutuhan memori dan prosesor untuk aplikasi atau layanan Anda? Anda akan menggunakan pengaturan ini saat menentukan kelas instans DB yang akan Anda gunakan saat membuat klaster DB. Untuk spesifikasi tentang kelas instans DB, lihat Kelas instans DB Aurora. VPC, subnet, dan grup keamanan – Klaster DB Anda akan berada di cloud privat virtual (VPC). Aturan grup keamanan harus dikonfigurasi agar terhubung ke klaster DB. Daftar berikut menjelaskan aturan untuk setiap opsi VPC: VPC Default – Jika akun AWS Anda memiliki VPC default di Wilayah AWS, VPC tersebut dikonfigurasi untuk mendukung klaster DB. Jika Anda menentukan VPC default saat membuat klaster DB: Anda harus membuat grup keamanan VPC yang mengizinkan koneksi dari aplikasi atau layanan ke klaster DB Aurora. Gunakan opsi Grup Keamanan pada konsol VPC atau AWS CLI untuk membuat grup keamanan VPC. Untuk informasi, lihat Langkah 3: Buat grup keamanan VPC. Anda harus menentukan grup subnet DB default. Jika ini adalah klaster DB pertama yang Anda buat di Wilayah AWS, Amazon RDS akan membuat grup subnet DB default saat membuat klaster DB. VPC yang ditentukan pengguna – Jika Anda ingin menentukan VPC yang ditentukan pengguna ketika membuat klaster DB: Anda harus membuat grup keamanan VPC yang mengizinkan koneksi dari aplikasi atau layanan ke klaster DB Aurora. Gunakan opsi Grup Keamanan pada konsol VPC atau AWS CLI untuk membuat grup keamanan VPC. Untuk informasi, lihat Langkah 3: Buat grup keamanan VPC. VPC harus memenuhi persyaratan tertentu untuk meng-hosting klaster DB, seperti memiliki setidaknya dua subnet, yang masing-masingnya berada di zona ketersediaan terpisah. Untuk informasi, lihat Amazon VPC dan Amazon Aurora. Anda harus menentukan grup subnet DB yang menentukan subnet mana di VPC tersebut yang dapat digunakan oleh klaster DB. Untuk informasi, lihat bagian Grup Subnet DB di Bekerja dengan instans DB dalam VPC. Ketersediaan tinggi: Apakah Anda memerlukan dukungan failover? Di Aurora, deployment Multi-AZ menciptakan instans primer dan Replika Aurora. Anda dapat mengonfigurasi instans primer dan Replika Aurora agar berada di Zona Ketersediaan yang berbeda untuk dukungan failover. Kami merekomendasikan deployment Multi-AZ untuk beban kerja produksi agar menjaga ketersediaan yang tinggi. Untuk tujuan pengembangan dan pengujian, Anda dapat • • • menggunakan deployment Multi-AZ. Untuk informasi selengkapnya, lihat Ketersediaan yang tinggi untuk Amazon Aurora. Kebijakan IAM: Apakah akun AWS Anda memiliki kebijakan yang memberikan izin yang diperlukan untuk melakukan operasi Amazon RDS? Jika Anda tersambung ke AWS menggunakan kredensial IAM, akun IAM Anda harus memiliki kebijakan IAM yang memberikan izin yang diperlukan untuk menjalankan operasi Amazon RDS. Untuk informasi selengkapnya, lihat Pengelolaan identitas dan akses untuk Amazon Aurora. Port terbuka: Port TCP/IP apa yang akan didengar oleh basis data Anda? Firewall di beberapa perusahaan mungkin memblokir koneksi ke port default untuk mesin basis data Anda. Jika firewall perusahaan Anda memblokir port default, pilih port lain untuk klaster DB baru. Perhatikan bahwa setelah membuat klaster DB yang mendengarkan di port yang Anda tentukan, Anda dapat mengubah port tersebut dengan mengubah klaster DB. Wilayah AWS: Wilayah AWS mana yang Anda inginkan untuk basis data Anda? Memiliki basis data yang dekat dengan aplikasi atau layanan web dapat mengurangi latensi jaringan. Untuk informasi selengkapnya, lihat Wilayah dan Zona Ketersediaan. Setelah mendapatkan informasi yang Anda perlukan untuk membuat grup keamanan dan klaster DB, lanjutkan ke langkah berikutnya. Berikan akses ke klaster DB dalam VPC dengan membuat grup keamanan Klaster DB Anda akan dibuat di VPC. Grup keamanan memberikan akses ke klaster DB dalam VPC. Grup tersebut bertindak sebagai firewall untuk klaster DB terkait, yang mengontrol lalu lintas masuk dan keluar pada tingkat klaster. Klaster DB dibuat secara default dengan satu firewall dan grup keamanan default yang mencegah akses ke klaster DB. Oleh karena itu, Anda harus menambahkan aturan ke grup keamanan yang memungkinkan Anda untuk terhubung ke klaster DB Anda. Gunakan informasi jaringan dan konfigurasi yang Anda tentukan pada langkah sebelumnya untuk membuat aturan yang memungkinkan akses ke klaster DB Anda. Misalnya, jika memiliki aplikasi yang akan mengakses basis data pada klaster DB Anda dalam VPC, Anda harus menambahkan aturan TCP khusus yang menentukan rentang port dan alamat IP yang akan digunakan aplikasi untuk mengakses basis data. Jika memiliki aplikasi di instans Amazon EC2, Anda dapat menggunakan grup keamanan VPC yang Anda siapkan untuk instans Amazon EC2. Anda dapat mengonfigurasi konektivitas antara instans Amazon EC2 dan kluster DB saat membuat klaster DB. Untuk informasi selengkapnya, lihat Konfigurasikan konektivitas jaringan otomatis dengan instans EC2. Tip Anda dapat menyiapkan konektivitas jaringan antara instans Amazon EC2 dan klaster DB secara otomatis saat membuat klaster DB. Untuk informasi selengkapnya, lihat Konfigurasikan konektivitas jaringan otomatis dengan instans EC2. Untuk informasi selengkapnya tentang membuat VPC untuk digunakan dengan Aurora, lihat Tutorial: Membuat VPC untuk digunakan dengan klaster DB (khusus IPv4). Untuk informasi tentang skenario umum untuk mengakses instans DB, lihat Skenario untuk mengakses klaster DB di VPC. Untuk membuat grup keamanan VPC 1. Masuk ke AWS Management Console dan buka konsol Amazon VPC di https://console.aws.amazon.com/vpc. catatan Pastikan Anda berada di konsol VPC, bukan konsol RDS. 2. Di pojok kanan atas AWS Management Console, pilih Wilayah AWS tempat Anda ingin membuat grup keamanan VPC dan klaster DB Anda. Dalam daftar sumber daya Amazon VPC untuk Wilayah AWS tersebut, Anda akan melihat setidaknya satu VPC dan beberapa subnet. Jika tidak, Anda tidak memiliki VPC default di Wilayah AWS tersebut. 3. Di panel navigasi, pilih Security Groups (Grup Keamanan). 4. Pilih Buat grup keamanan. 5. 6. a. b. Halaman Membuat grup keamanan akan muncul. Dalam Detail basic, masukkan Nama grup keamanan dan Deskripsi. Untuk VPC, pilih VPC tempat Anda ingin membuat klaster DB. Di bagian Aturan masuk, pilih Tambahkan aturan. Untuk Tipe, pilih TCP khusus. Untuk Rentang port, ketik nilai port yang akan digunakan untuk klaster DB Anda. c. Untuk Sumber, pilih nama grup keamanan atau ketik rentang alamat IP (nilai CIDR) dari tempat Anda mengakses klaster DB. Jika Anda memilih IP Saya, pilihan ini mengizinkan akses ke klaster DB dari alamat IP yang terdeteksi di browser Anda. 7. Jika Anda perlu menambahkan lebih banyak alamat IP atau rentang port yang berbeda, pilih Tambahkan aturan dan masukkan informasi untuk aturan tersebut. 8. (Opsional) Dalam Aturan keluar, tambahkan aturan untuk lalu lintas keluar. Secara default, semua lalu lintas keluar akan diizinkan. 9. Pilih Buat grup keamanan. Anda dapat menggunakan grup keamanan VPC yang baru Anda buat sebagai grup keamanan untuk klaster DB Anda saat membuatnya. catatan Jika Anda menggunakan VPC default, grup subnet default yang mencakup semua subnet VPC akan dibuat untuk Anda. Saat membuat klaster DB, Anda dapat memilih VPC default dan menggunakan default untuk Grup Subnet DB. Setelah menyelesaikan persyaratan pengaturan, Anda dapat membuat klaster DB menggunakan persyaratan dan grup keamanan Anda dengan mengikuti petunjuk di Membuat klaster DB Amazon Aurora. Untuk informasi tentang memulai dengan membuat klaster DB yang menggunakan mesin DB tertentu, lihat Memulai dengan Amazon Aurora. 2.Praktek Installasi & Persiapan DW dgn SQL Server Preparation Step 1: Install Software The lessons in this tutorial assume that you have the following software installed. All of the following software is installed using SQL Server installation media. For simplicity of deployment, you can install all of the features on a single computer. To install these features, run SQL Server Setup and select them from the Feature Selection page. For more information, see Install SQL Server 2012 from the Installation Wizard (Setup). • • • • Database Engine Analysis Services SQL Server Data Tools (SSDT) SQL Server Management Studio Optionally, consider installing Excel to browse your multidimensional data as you proceed through the tutorial. Installing Excel enables the Analyze in Excel feature that starts Excel using a PivotTable field list that is connected to the cube you are building. Using Excel to browse data is recommended because you can quickly build a pivot report that lets you interact with the data. Step 2: Install Databases An Analysis Services multidimensional model uses transactional data that you import from a relational database management system. For the purposes of this tutorial, you will use the following relational database as your data source. • AdventureWorksDW2012 – This is a relational data warehouse that runs on a Database Engine instance. It provides the original data that will be used by the Analysis Services databases and projects that you build and deploy throughout the tutorial. To install this database, do the following: 1. Download the AdventureWorkDW2012 database from the product samples page on codeplex. The database file name is AdvntureWorksDW2012_Data.mdf. The file should be in the Downloads folder on your computer. 2. Copy the AdventureWorksDW2012_Data.mdf file to the data directory of the local SQL Server Database Engine instance. By default, it is located at C:\Program Files\Microsoft SQL Server\MSSQL11.MSSQLSERVER\MSSQL\Data. 3. Start SQL Server Management Studio and connect to the Database Engine instance. 4. Right-click Databases, click Attach. 5. Click Add. 6. Select the AdventureWorksDW2012_Data.mdf database file and click OK. If the file is not listed, check the C:\Program Files\Microsoft SQL Server\MSSQL11.MSSQLSERVER\MSSQL\Data folder to be sure the file is there. 7. In database details, remove the Log file entry. The sample download does not include a log file. A new log file will be created automatically when you attach the database. Select the log file and click Remove, and then click OK to attach just the primary database file. Step 3: Grant Database Permissions The sample projects use data source impersonation settings that specify the security context under which data is imported or processed. By default, the impersonation settings specify the Analysis Services service account for accessing the data. To use this default setting, you must ensure that the service account under which Analysis Services runs has data reader permissions on the AdventureWorksDW2012 database. Note: For learning purposes, it is recommended that you use the service account impersonation option and grant data reader permissions to the service account in SQL Server. Although other impersonation options are available, not all of them are suitable for processing operations. Specifically, the option for using the credentials of the current user is not supported for processing. Determine the service account. You can use SQL Server Configuration Manager or the Services console application to view account information. If you installed Analysis Services as the default instance, using the default account, the service is running as NT Service\MSSQLServerOLAPService. 1. In Management Studio, connect to the database engine instance. 2. Expand the Security folder, right-click Logins and select New Login. 3. On the General page, in Login name, type NT Service\MSSQLServerOLAPService (or type the name you want or whatever account the service is running as). 4. Click User Mapping. 5. Select the checkbox next to the AdventureWorksDW2012 database. Role membership should automatically include db_datareader and public. Click OK to accept the defaults. Lesson 1: Defining a Data Source View within an Analysis Services Project Creating an Analysis Services Project In the following task, you use SQL Server Data Tools (SSDT) to create a new Analysis Services project named Analysis Services Tutorial, based on the Analysis Services Project template. A project is a collection of related objects. Projects exist within a solution, which includes one or more projects. Procedure to Create new a new analysis services project: 1. Click Start, point to All Programs, point to Microsoft SQL Server 2012, and then click SQL Server Data Tools. The Microsoft Visual Studio development environment opens. 2. On the Start page of Visual Studio, click New Project. 3. In the New Project dialog box, in the Installed Templates pane, expand Business Intelligence, and then select Analysis Services. Choose the Analysis Services Multidimensional and Data Mining Project template. Notice the default project name, location, and the default solution name are generated in the bottom of the dialog box. By default, a new directory is created for the solution. 4. Change the project Name to Analysis Services Tutorial, which also changes the Solution name box, and then click OK. You have successfully created the Analysis Services Tutorial project, based on the Analysis Services Multidimensional and Data Mining Project template, within a new solution that is also named Analysis Services Tutorial. Defining a Data Source After you create an Analysis Services project, you generally start working with the project by defining one or more data sources that the project will use. When you define a data source, you are defining the connection string information that will be used to connect to the data source. Procedures to define a new data source: 1. In Solution Explorer (on the right of the Microsoft Visual Studio window), right-click Data Sources, and then click New Data Source. 2. On the Welcome to the Data Source Wizard page of the Data Source Wizard, click Next to open the Select how to define the connection page. 3. On the Select how to define the connection page, you can define a data source based on a new connection, based on an existing connection, or based on a previously defined data source object. In this tutorial, you define a data source based on a new connection. Verify that Create a data source based on an existing or new connection is selected, and then click New. 4. In the Connection Manager dialog box, you define connection properties for the data source. In the Provider list box, verify that Native OLE DB\SQL Server Native Client 11.0 is selected. Analysis Services also supports other providers, which are displayed in the Provider list. 5. In the Server name text box, type localhost. To connect to a named instance on your local computer, type localhost\<instance name>. To connect to the specific computer instead of the local computer, type the computer name or IP address. 6. Verify that Use Windows Authentication is selected. In the Select or enter a database name list, select AdventureWorksDW2012. 7. Click Test Connection to test the connection to the database. 8. Click OK, and then click Next. 9. On the Impersonation Information page of the wizard, you define the security credentials for Analysis Services to use to connect to the data source. Impersonation affects the Windows account used to connect to the data source when Windows Authentication is selected. Analysis Services does not support impersonation for processing OLAP objects. Select Use the service account, and then click Next. 10. On the Completing the Wizard page, accept the default name, Adventure Works DW 2012, and then click Finish to create the new data source. Note Note: To modify the properties of the data source after it has been created, double-click the data source in the Data Sources folder to display the data source properties in Data Source Designer. Defining a Data Source View After you define the data sources that you will use in an Analysis Services project, the next step is generally to define a data source view for the project. A data source view is a single, unified view of the metadata from the specified tables and views that the data source defines in the project. Storing the metadata in the data source view enables you to work with the metadata during development without an open connection to any underlying data source. In the following task, you define a data source view that includes five tables from the AdventureWorksDW2012 data source. Procedures to define a new data source view: 1. In Solution Explorer (on the right of the Microsoft Visual Studio window), right-click Data Source Views, and then click New Data Source View. 2. On the Welcome to the Data Source View Wizard page, click Next. The Select a Data Source page appears. 3. Under Relational data sources, the Adventure Works DW 2012 data source is selected. Click Next. Note: To create a data source view that is based on multiple data sources, first define a data source view that is based on a single data source. This data source is then called the primary data source. You can then add tables and views from a secondary data source. When designing dimensions that contain attributes based on related tables in multiple data sources, you might need to define a Microsoft SQL Server data source as the primary data source to use its distributed query engine capabilities. 4. On the Select Tables and Views page, select tables and views from the list of objects that are available from the selected data source. You can filter this list to help you select tables and views. Note: Click the maximize button in the upper-right corner so that the window covers the full screen. This makes it easier to see the complete list of available objects. In the Available objects list, select the following objects. You can select multiple tables by clicking each while holding down the CTRL key: • DimCustomer (dbo) • DimDate (dbo) • DimGeography (dbo) • DimProduct (dbo) • FactInternetSales (dbo) 5. Click > to add the selected tables to the Included objects list. 6. Click Next. 7. In the Name field, make sure Adventure Works DW 2012 displays, and then click Finish. The Adventure Works DW 2012 data source view appears in the Data Source Views folder in Solution Explorer. The content of the data source view is also displayed in Data Source View Designer in SQL Server Data Tools (SSDT). This designer contains the following elements: • A Diagram pane in which the tables and their relationships are represented graphically. • A Tables pane in which the tables and their schema elements are displayed in a tree view. • A Diagram Organizer pane in which you can create subdiagrams so that you can view subsets of the data source view. • A toolbar that is specific to Data Source View Designer. 8. To maximize the Microsoft Visual Studio development environment, click the Maximize button. 9. To view the tables in the Diagram pane at 50 percent, click the Zoom icon on the Data Source View Designer toolbar. This will hide the column details of each table. 10. To hide Solution Explorer, click the Auto Hide button, which is the pushpin icon on the title bar. To view Solution Explorer again, position your pointer over the Solution Explorer tab along the right side of the development environment. To unhide Solution Explorer, click the Auto Hide button again. 11. If the windows are not hidden by default, click Auto Hide on the title bar of the Properties and Solution Explorer windows. You can now view all the tables and their relationships in the Diagram pane. Notice that there are three relationships between the FactInternetSales table and the DimDate table. Each sale has three dates associated with the sale: an order date, a due date, and a ship date. To view the details of any relationship, double-click the relationship arrow in the Diagram pane. Modifying Default Table Names You can change the value of the FriendlyName property for objects in the data source view to make them easier to notice and use. In the following task, you will change the friendly name of each table in the data source view by removing the "Dim" and "Fact" prefixes from these tables. This will make the cube and dimension objects (that you will define in the next lesson) easier to notice and use. You can also change the friendly names of columns, define calculated columns, and join tables or views in the data source view to make them easier to use. Procedures to modify default table names 1. In the Tables pane of Data Source View Designer, right-click the FactInternetSales table, and then click Properties. 2. If the Properties window on the right side of the Microsoft Visual Studio window is not displayed, click the Auto Hide button on the title bar of the Properties window so that this window remains visible. It is easier to change the properties for each table in the data source view when the Properties window remains open. If you do not pin the window open by using the Auto Hide button, the window will close when you click a different object in the Diagram pane. 3. Change the FriendlyName property for the FactInternetSales object to InternetSales. When you click away from the cell for the FriendlyName property, the change is applied. In the next lesson, you will define a measure group that is based on this fact table. The name of the fact table will be InternetSales instead of FactInternetSales because of the change you made in this lesson. 4. Click DimProduct in the Tables pane. In the Properties window, change the FriendlyName property to Product. 5. Change the FriendlyName property of each remaining table in the data source view in the same way, to remove the "Dim" prefix. 6. When you have finished, click the Auto Hide button to hide the Properties window again. 7. On the File menu, or on the toolbar of SQL Server Data Tools, click Save All to save the changes you have made to this point in the Analysis Services Tutorial project. You can stop the tutorial here if you want and resume it later. Daftar Pertanyaan 7.1 Jelaskan 9 Tahap Membuat Data Warehouse? 7.2 JelaskanData Warehouse Design? 7.3 JelaskanOLAP Data Cube Operations? 7.3.1 JelaskanArsitektur OLAP? 7.3.2 JelaskanTipe-tipe OLAP? 7.3.3 Jelaskan Pemodelan data di OLAP? 7.3.4 JelaskanOperasi OLAP? 7.4 Jelaskan OLAP dibandingkan dengan metode analisis data lainnya? 7.5 Jelaskan AWS membantu OLAP? 7.6 Jelaskan Amazon Aurora? 7.6.1 Jelaskan Klaster DB Amazon Aurora? 7.6.2 JelaskanVersi Amazon Aurora? 7.6.3 Jelaskan Basis data relasional yang tersedia di Aurora? 7.6.4 JelaskanMenggunakan Amazon Aurora MySQL? 7.6.5 Jelaskan Aurora MySQL versi 3 yang kompatibel dengan MySQL 8.0? 7.6.6 Jelaskan Fitur dari MySQL 8.0 Community Edition? 7.7 Jelaskan Memperbarui aplikasi untuk terhubung ke klaster DB Aurora MySQL menggunakan sertifikat TLS baru? 7.8 Jelaskan Menggunakan autentikasi Kerberos untuk Aurora MySQL? 7.9 JelaskanBatasan autentikasi Kerberos untuk Aurora MySQL?