Pengembangan Auto-AI Model Generatif Analisis Kompleksitas Waktu Algoritma Untuk Data Multi-Sensor IoT Pada Node-RED Menggunakan Extreme Learning Machine

Imam Cholissodin,Dahnial Syauqy, Dwi Ady Firmanda, Ibrahim Aji,Edy Rahman, Syazwandy Harahap, Fernando Septino

Jurnal Teknologi Informasi dan Ilmu Komputer(2022)

引用 0|浏览1
暂无评分
摘要
Awal mulanya, algoritma hanya dipakai untuk solusi penyelesaian persamaan matematika sederhana, seperti aljabar, aritmatika, probabilitas, dan lainnya yang lebih banyak dikerjakan secara manual dan membutuhkan waktu dan upaya yang cukup tinggi seperti pada kasus penghitungan nilai kompleksitas waktu algoritma dengan model rumus T(n), baik untuk algoritma non-rekursif maupun rekursif. Namun dengan perkembangan teknologi komputer untuk AI, Machine Learning maupun Deep Learning, algoritma dengan basis AI tersebut, dalam penelitian ini dikembangkan untuk menemukan solusi general persamaan model T(n) secara otomatis dari desain algoritma sederhana atau kompleks. Langkah dalam penelitian digunakan pembuatan model generatif berbasis algoritma Extreme Learning Machine (ELM) berdasarkan pencatatan nilai waktu komputasi pada beberapa kali pengujian untuk mengotomasi penentuan model persamaan kompleksitas waktu algoritma secara general baik untuk pencarian best case, worst case maupun average case untuk non-rekursif, dan base case dan recurrent case untuk rekursif, maupun keduanya. Hasil komparasi nilai T(n) dari ELM, yang tercepat atau terkecil waktu komputasinya digunakan sebagai rekomendasi algoritma untuk pengolahan data multi-sensor pada Internet of Things (IoT) simulator maupun non-simulator menggunakan Node-RED dengan tambahan platform yaitu flespi dan Heroku, sebagai solusi general untuk semua jenis kasus dan analisis algoritmanya. Berdasarkan pengujian didapatkan selisih nilai antara data aktual dengan hasil prediksi dalam ukuran nilai rata-rata MAPE sebesar 11,90%, yang menunjukkan nilai kesalahan yang cukup kecil. Abstract Initially, algorithms were only used for solving simple mathematical equations such as algebra, arithmetic, probability, and others that were mostly carried out manually and required quite a lot of time and effort as in the case of calculating the value of the time complexity of the algorithm with the formula model of T(n), both for non-recursive and recursive algorithms. However, with the development of computer technology for AI, both Machine Learning and Deep Learning, the AI-based algorithms in this study were developed to identify general solutions to the T(n) model equation automatically from simple or complex algorithm designs. The steps in the study are utilized to create a generative model based on the Extreme Learning Machine (ELM) algorithm according to the recording of computational time values on several tests to automate the determination of time complexity equation model of the algorithm in general including the search of best cases, worst cases, and average cases for non-recursive, and base cases and recurrent cases for recursive, as well as algorithms that contain both. The results of the comparison of T(n) values from ELM revealed that the fastest or smallest computational time is used as the algorithm recommendations for multi-sensor data processing in the Internet of Things (IoT) simulators and non-simulators by utilizing Node-RED with additional platforms i.e., flespi and Heroku, as a general solution for the entire types of cases and analysis of their algorithms. Based on the tests that have been carried out, the difference in value between the actual data and the prediction results in the size of the MAPE average value of 11.90%, which shows a fairly small error value.
更多
查看译文
关键词
iot,multi-sensor,node-red
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要