The Illusion of Deletion in the Digital Environment

In everyday digital life, users routinely delete messages, clear browsing histories, and remove files with a sense of finality. The act of pressing the “delete” button often creates a psychological assurance that the data has been permanently erased. This perception is reinforced by common assumptions: that deletion equates to destruction, that clearing history renders activity untraceable, and that selecting “delete for everyone” guarantees permanent removal. However, these assumptions reflect a misunderstanding of how digital systems function.

Deletion, in most technical contexts, does not immediately eliminate data. Instead, it typically alters the system’s reference to that data. What disappears from the user interface may continue to exist at a structural level within storage systems or network environments. The distinction between removing visibility and removing existence is fundamental to understanding digital persistence.

What Actually Happens When Data is Deleted

From a technical standpoint, many operating systems and applications do not instantly erase the underlying data when a user deletes a file or message. Rather, the system marks the storage space occupied by that data as available for overwriting. Until new data replaces it, the original information may remain recoverable through specialized methods.

This principle extends beyond local devices. In networked environments, digital activity generates multiple layers of records, including login records, timestamps of access, IP address logs, communication metadata, server-side backups. These elements are often stored independently of the user’s direct control. Even if content is removed from a device or application interface, related metadata and transaction logs may persist on servers or within distributed infrastructures.

Many digital platforms operate under established retention and backup policies. These policies are designed for operational continuity, regulatory compliance, and security monitoring. As a result, data may be preserved in archives or backup systems for defined periods, even after users believe it has been deleted.

The Persistence of Digital Traces

The internet does not function as a surface that can be wiped clean at will. Rather, it operates more like an interconnected archival system in which activities generate time-stamped records. Each interaction, whether sending a message, logging into an account, or accessing a webpage, contributes to a broader network of traceable events.

This persistence of digital traces is particularly significant in the context of cybersecurity and digital investigations. Even when individuals attempt to remove evidence of their actions, fragments of activity may remain embedded within network traffic, server logs, or backup repositories.

The concept that data can simply “vanish” overlooks the layered architecture of digital systems. Information is often replicated, cached, synchronized, or logged across multiple nodes. Consequently, what appears absent at the user level may continue to exist elsewhere within the infrastructure.

Implications for Network Forensics

The enduring nature of digital traces forms the foundation of network forensics. By analyzing traffic patterns, metadata, timestamps, and communication records, investigators can reconstruct events that users assumed were permanently erased. Network forensics does not rely solely on visible content. It examines patterns within data flows, correlations between sessions, and anomalies in network behavior. Even if primary content is deleted, secondary traces such as connection records or transmission logs may provide sufficient evidence to establish timelines and identify actors.

In this sense, the belief in total digital disappearance is not only inaccurate but also strategically flawed. Deletion is not a reliable defense mechanism against accountability. Rather than eliminating risk, it may create a false sense of security.

Rethinking Digital Responsibility

Understanding the limitations of deletion carries important implications for digital behavior. Users must recognize that digital communications often leave residual metadata, network infrastructures maintain logs beyond user visibility, and removing content from an interface does not guarantee eradication from storage systems. In the digital realm, disappearance is rarely absolute. What is perceived as “gone” may remain dormant within systems designed for redundancy, security, and record-keeping.

 

Therefore, responsible digital conduct should begin not with reliance on deletion, but with careful consideration prior to transmission. In an environment where traces persist across networks and servers, prevention lies not in attempting to erase actions after the fact, but in understanding the enduring nature of digital footprints. Total erasure is the exception, not the norm. In many cases, what is considered lost is simply concealed within the deeper architecture of the network, awaiting discovery through systematic analysis.

 

instagram post: https://www.instagram.com/p/DVKJJXCkxOc/?utm_source=ig_web_copy_link&igsh=MzRlODBiNWFlZA== 

Network Forensics as a Critical Component of Cyber Defense

Network security plays a fundamental role in protecting digital infrastructures. Firewalls, intrusion detection systems, authentication mechanisms, and encryption protocols are designed to prevent unauthorized access and safeguard sensitive information. However, preventive measures alone are insufficient. When a breach occurs and the protective “fence” is compromised, organizations require mechanisms not only to contain the damage but also to determine responsibility, scope, and impact. In this context, network forensics emerges as a critical complement to network security.

 

Concept and Scope of Network Forensics

Network forensics refers to the application of scientific and systematic techniques to collect, preserve, examine, and analyze digital information derived from network activity. Unlike traditional digital forensics, which often focuses on data stored on physical devices, network forensics emphasizes live network sessions, traffic flows, and communication records.

Its primary objective is to reconstruct events that occurred within a network environment. This includes analyzing packet captures, log files, traffic metadata, and session histories to establish a coherent account of suspicious or malicious activity. The process begins when there is an awareness of a potential incident, commonly referred to in legal terminology as notitia criminis, the recognition that a possible offense has taken place.

Why Accounts Become Compromised

Account compromise is rarely accidental. Cybercriminals employ structured methods and recognizable attack patterns. These may include brute force attacks, credential stuffing, phishing campaigns, malware deployment, exploitation of software vulnerabilities, or unauthorized data exfiltration.

 

Each of these techniques generates observable traces within network traffic. For example repeated failed login attempts may indicate brute force behavior, unusual outbound data transfers may signal data exfiltration, access from unfamiliar geographic locations may suggest credential compromise, abnormal traffic spikes may reveal automated attack scripts, and many more. Network forensics enables investigators to detect and interpret these patterns, transforming raw traffic data into meaningful evidence.

 

Purpose and Function of Network Forensics

The purpose of network forensics extends beyond identifying that an incident occurred. Its functions include:

  • Post-incident investigation
    Network forensics reconstructs the sequence of events, identifies entry points, determines the duration of unauthorized access, and assesses the extent of compromise.
  • Recovery of deliberately removed traces
    Attackers frequently attempt to erase evidence by deleting logs or modifying system records. However, network-level data often retains residual traces of activity. By analyzing captured traffic and archived logs, investigators can recover information that no longer exists on compromised endpoints.
  • Detection of attack patterns
    Forensic analysis reveals behavioral signatures such as brute force attempts, lateral movement within networks, and unauthorized data transfers. Recognizing these patterns enhances threat intelligence and supports preventive improvements.
  • Detailed analysis of network traffic
    Through structured examination of packets and communication flows, network forensics reconstructs fragmented information and clarifies anomalies that may otherwise remain undetected.
  • Strengthening organizational security
    Insights derived from forensic investigations inform policy revisions, technical adjustments, and strategic risk management decisions. Each incident becomes an opportunity to reinforce resilience.

Challenging the “Lost Data” Assumption

A common misconception is that once attackers delete traces from devices, the evidence is permanently lost. In reality, network communications leave residual artifacts. Data packets transmitted across a network may be recorded in logs, monitoring systems, or archival storage.

Even if attackers remove files or clear system logs, fragments of their activity may persist within network traffic records. Network forensics can reconstruct these fragments to establish timelines, identify communication endpoints, and determine the nature of transmitted data. What appears irretrievable at the device level may remain recoverable at the network level.

Legal and Evidentiary Considerations

Proper forensic methodology is essential for ensuring that digital evidence is admissible in legal proceedings. Evidence must be collected and preserved in a manner that maintains integrity, authenticity, and chain of custody. Without adherence to established forensic standards, digital findings may be challenged or rejected in court. Therefore, network forensics is not merely technical analysis but also a disciplined investigative practice grounded in evidentiary principles.

 

Conclusion

Network security and network forensics serve complementary roles within cybersecurity frameworks. While network security seeks to prevent unauthorized access, network forensics provides the analytical capacity to investigate incidents, reconstruct events, and generate legally defensible evidence.

In contemporary digital environments, where breaches are increasingly sophisticated and difficult to prevent entirely, organizations must integrate both preventive and investigative capabilities. Network forensics ensures that when defenses fail, accountability, understanding, and institutional learning remain possible.

instagram post: https://www.instagram.com/p/DUiVMc0EypK/?utm_source=ig_web_copy_link&igsh=MzRlODBiNWFlZA==

oleh: Hanson Prihantoro Putro
[email protected]

Di balik layar laptop mahasiswa Informatika, baris-baris kode seperti Python: print(“Hello World!”) menjadi pemandangan sehari-hari. Program dijalankan, teks muncul di layar, dan semuanya terasa instan. Namun, tahukah kamu, apa yang sebenarnya terjadi setelah tombol Run ditekan? Bagaimana komputer bisa mengerti perintah sederhana itu dan mengubahnya menjadi aksi nyata di console atau IDE? Apa yang bekerja di balik dunia ghaibnya, dunia di belakang layar yang tidak bisa kita lihat tersebut?

Sebagian besar dari kita mahasiswa belajar bahasa pemrograman seperti Python, C++, Java, PHP, JavaScript atau yang lain. Namun, mungkin kita tidak pernah benar-benar menyentuh bagaimana kode diproses sebelum dijalankan. Kita mungkin tahu bahwa C++ harus dikompilasi, sedangkan Python bisa langsung diinterpretasi dan dijalankan. Tapi apakah Python benar-benar bebas dari proses kompilasi? Apa peran interpreter? Dan ke mana arahnya setelah kita menulis satu baris perintah? Pertanyaan-pertanyaan semacam ini mungkin luput dalam kelas-kelas perkuliahan, terutama karena mata kuliah spesifik tentang teknik kompilasi seperti ini mulai jarang diberikan.

Di tulisan ini, kita akan menyusuri jejak eksekusi dari sebaris kode Python hingga teks muncul di layar. Kita akan bertemu istilah seperti token, bytecode, hingga virtual machine. Memahami proses ini bukan semata untuk menjadi compiler engineer, melainkan bekal penting bagi siapa saja yang ingin menulis kode dengan lebih dalam dan bertanggung jawab. Read more

Pada hari Selasa, 1 Juli 2025, Jurusan Informatika FTI UII menyelenggarakan seminar bertema “How to Become an SAP Consultant: Your Path to a Rewarding Career in Enterprise Software” di Auditorium FTI UII. Seminar ini menghadirkan Mas Aris Muda, S.Kom., seorang SAP ABAP Consultant yang juga merupakan alumni Informatika UII angkatan 2005.

 

Seminar ini diusung oleh Dr. Nur Wijayaning R., dan dibuka dengan sambutan oleh Bapak Dhomas Hatta Fudholi, Ph.D., selaku Ketua Program Studi Informatika Program Sarjana. Dalam sambutannya, beliau menyampaikan apresiasi kepada semua pihak yang telah berkontribusi dalam terselenggaranya seminar ini, serta mendorong mahasiswa untuk memanfaatkan momen ini sebagai ajang belajar dari alumni yang telah terjun langsung ke industri enterprise. Beliau juga menekankan pentingnya pemahaman terhadap sistem yang terintegrasi dalam sebuah perusahaan.

 

Apa Itu SAP dan Kenapa Penting di Dunia Kerja?

Mas Aris membuka sesi pemaparannya dengan memperkenalkan perjalanan kariernya di dunia SAP sejak tahun 2010, bekerja di berbagai perusahaan seperti ABYOR International, NTT Data Business Solutions Indonesia, dan kini di Accenture.

Beliau kemudian menjelaskan pengertian Enterprise Resource Planning (ERP) sebagai sistem perangkat lunak yang digunakan untuk mengelola dan menyatukan berbagai proses penting dalam sebuah perusahaan. Proses tersebut meliputi manajemen keuangan, sumber daya manusia, pengelolaan proyek, serta kegiatan manufaktur. Menurut Mas Aris, ERP berperan penting dalam mengurangi pekerjaan manual, meningkatkan efisiensi kerja, serta memungkinkan pengambilan keputusan berbasis data yang lebih akurat.

Salah satu sistem ERP paling banyak digunakan di dunia industri saat ini adalah SAP. Sudah ribuan perusahaan skala besar hingga multinasional menggunakan SAP untuk membantu mereka menjalankan operasional harian. Karena itu, kebutuhan akan tenaga ahli SAP, seperti consultant dan developer, terus meningkat, menjadikan bidang ini sebagai salah satu jalur karier yang menjanjikan di dunia kerja modern.

Read more

Oleh: Ahmad Fathan Hidayatullah, S.T., M.Cs., Ph.D.

AI Mengubah Lanskap Pendidikan

Perkembangan kecerdasan artifisial atau artificial intelligence (AI) telah mengubah berbagai aspek kehidupan manusia secara signifikan. Teknologi ini menghadirkan kemudahan, kecepatan, dan efisiensi dalam banyak aktivitas. Beragam AI tools hadir, seperti ChatGPT dari OpenAI, Copilot dari Microsoft Bing, Gemini (sebelumnya Google Bard), dan Claude dari Anthropic.

ChatGPT, sebagai salah satu platform AI paling populer, telah menjadi alat bantu yang sangat fleksibel dalam pendidikan. Dengan kemampuan memahami konteks, menjawab pertanyaan, dan menyusun teks secara koheren, ChatGPT mampu mendampingi pendidik dalam menyiapkan materi pelajaran, mengembangkan soal, serta memberikan umpan balik atas tugas. Bagi siswa, ChatGPT juga menjadi asisten belajar yang mampu menjelaskan topik pelajaran, memecah konsep sulit menjadi lebih sederhana, bahkan membantu menyusun draf tugas dengan cepat dan terstruktur.

AI Sebagai Mitra Pendidik dan Peserta Didik

Dalam konteks pendidikan, AI menawarkan beragam kemudahan yang dapat meningkatkan efisiensi dan kualitas proses belajar mengajar. Bagi pendidik seperti guru dan dosen, AI dapat membantu dalam merancang materi pembelajaran yang lebih terstruktur, membuat soal evaluasi berdasarkan level kognitif tertentu (misalnya taksonomi Bloom), hingga mengoreksi tugas secara otomatis dengan analisis berbasis rubrik. AI juga mampu memberikan saran penyempurnaan materi atau metode penyampaian yang sesuai dengan karakteristik peserta didik, terutama dalam pembelajaran daring dan adaptif.

Adapun bagi peserta didik, keberadaan tools AI dapat berperan sebagai mitra belajar yang tanggap dan fleksibel. AI mampu merespons pertanyaan, menyederhanakan informasi kompleks, serta memvisualisasikan ide dalam bentuk teks, diagram, atau kode. Hal ini sangat membantu siswa dalam memahami konsep abstrak atau teknis dengan lebih cepat dan mendalam. Selain itu, AI juga dapat digunakan sebagai alat bantu brainstorming dalam membangun ide kreatif. Misalnya, saat siswa diminta untuk menulis esai, membuat proyek inovatif, atau menyusun skrip presentasi, AI dapat memunculkan berbagai sudut pandang, contoh kasus, bahkan mengusulkan struktur penulisan yang logis. Kemampuan ini sangat bermanfaat dalam mendorong kreativitas siswa dan menghindari kebuntuan ide (writer’s block).

Sentuhan Pendidik Tidak Akan Tergantikan

Read more

Oleh: Ahmad Fathan Hidayatullah, S.T., M.Cs., Ph.D.

Dalam kurun lima tahun belakangan, Large Language Models (LLMs) telah menjadi sorotan utama dalam perkembangan teknologi kecerdasan buatan. Keberadaannya mendorong perubahan besar dalam cara manusia berinteraksi dengan mesin. Interaksi manusia dengan mesin kini tidak lagi terbatas pada perintah sederhana, tetapi sudah menyerupai percakapan layaknya komunikasi sehari-hari. LLMs merupakan salah satu inovasi paling signifikan dalam pengembangan AI (Artificial Intelligence), khususnya dalam bidang natural language processing (NLP). Model ini memungkinkan mesin untuk memahami, mengolah, dan menghasilkan bahasa manusia dengan tingkat kecanggihan yang belum pernah terjadi sebelumnya. 

Apa Itu Large Language Models?

Large Language Models (LLMs) merupakan suatu model bahasa yang digunakan sebagai foundation models yang dirancang untuk dapat memahami dan menghasilkan bahasa manusia secara alami. Model ini dilatih menggunakan kumpulan data teks dalam skala besar. Data teks yang digunakan berasal dari miliaran kata yang diperoleh dari berbagai sumber seperti artikel berita, buku, forum daring, dokumen akademik, dan percakapan sehari-hari. 

Berbeda dengan pendekatan tradisional yang membutuhkan data berlabel, LLMs menggunakan metode self-supervised learning, yaitu teknik pelatihan di mana model belajar secara mandiri mengenali pola bahasa tanpa perlu pelabelan atau anotasi secara manual. Proses pelatihan ini memungkinkan model memahami struktur, makna, dan konteks bahasa secara menyeluruh.

Mengapa Disebut “Large”?

Read more

Penulis: Andhika Giri Persada (Dosen Informatika UII)

Saat ini, topik User Experience (UX) cukup populer diambil sebagai topik tugas akhir mahasiswa. Sayangnya, banyak dari mereka ‘hanya’ fokus membuat antarmuka yang menarik tanpa memikirkan apa sebenarnya kebutuhan pengguna. Berhasil membuat antarmuka yang menarik tidaklah salah, tetapi itu belum cukup. Dalam bahasa Indonesia, user experience artinya pengalaman pengguna. Esensi dari pengelaman pengguna adalah proses saat pengguna mengoperasikan aplikasi dan mencoba menyelesaikan tugas. Proses cara pengguna memahami, memproses, dan mengambil keputusan, sangat krusial dalam menciptakan pengalaman yang efektif dan bermakna. Itulah proses kognitif dalam perancangan UX.

Menjelajahi Framework Norman

Don Norman, seorang pakar UX, memperkenalkan framework emosional yang mencakup tiga level pengalaman: visceral, behavioral, dan reflective. Visceral mengacu pada reaksi spontan saat pertama kali pengguna berinteraksi dengan desain, atau disebut impresi awal. Behavioral menekankan fungsi dan kegunaan dalam menyelesaikan tugas. Reflective mengukur dampak jangka panjang terhadap emosi dan kesan pengguna. Tahap ini yang menentukan apakah produk potensial digunakan pengguna dalam jangka panjang.

Sebagai ilustrasi, pada fase visceral, pengguna akan tertarik pada tampilan antarmuka yang menarik. Jika antarmuka menarik, potensi pengguna untuk mengeksplorasi lebih lanjut menjadi lebih besar. Saat pengguna mengeksplorasi, semisal alur rumit, informasi tertentu sulit ditemukan, pengguna akan segera kehilangan minat (fase behavioral). Terakhir pada fase reflective, pengguna dapat merenungkan apakah aplikasi tersebut benar-benar dibutuhkan untuk menyelesaikan masalah atau tidak. Jika tidak, tinggal cari aplikasi lain yang lebih baik.

Tren Tugas Akhir: Terjebak ‘Hanya Fokus’ di Prototyping

Read more

Bayangkan, kita sedang menjadi seorang programmer di sebuah perusahaan rintisan (startup) teknologi. Proyek baru sudah berjalan selama beberapa minggu dan sekarang waktunya untuk merilis fitur-fitur terbaru kepada pengguna. Semuanya terlihat lancar: fitur-fitur sudah selesai, kode telah dirilis, dan aplikasi siap digunakan. Namun, dua hari setelah peluncuran, seorang pengguna melaporkan masalah: aplikasi sering mengalami crash ketika tombol “Checkout” ditekan. Tim panik dan harus segera mencari penyebabnya. Setelah menghabiskan berjam-jam memeriksa log dan kode, ternyata masalahnya ada pada satu baris kode yang gagal menangani input kosong.

Bug ini seharusnya bisa dicegah jika kita telah menulis dan menjalankan unit testing.

Apa itu unit testing?

Unit testing adalah pengujian pada unit terkecil dari kode, biasanya berupa fungsi atau metode, untuk memastikan program bekerja sesuai harapan. Dengan unit testing, setiap bagian kode diuji satu per satu secara terisolasi.  Jadi, jika kita membuat program yang terdiri dari 100 method, paling sedikit kita harus menulis 100 method unit testing. Pada kenyataannya, sebagian besar tim tidak sempat menulis unit test karena terburu-buru mengejar deadline. Akhirnya, bug ditemukan oleh pengguna dan merusak reputasi tim. Ini adalah masalah umum yang dihadapi banyak tim pengembang.

Mengapa unit testing penting untuk dilakukan?

Read more

Oleh: Dr. D.

Sang Superhero

Generative AI (AI Generatif), selanjutnya disebut Gen AI, adalah kecerdasan buatan (artificial intelligence) yang dirancang dan dilatih untuk menciptakan konten baru berdasarkan pola yang dipelajari dari data sebelumnya. Berbeda dengan AI tradisional yang fokus pada analisis atau klasifikasi, Gen AI memiliki kemampuan untuk berkreasi, menjadikannya alat yang sangat potensial dalam mendorong inovasi.

Gen AI dibangun dan bekerja dengan memanfaatkan arsitektur model Deep Learning, seperti Generative Adversarial Networks (GANs), Variational Autoencoders (VAEs), atau Transformers. Model ini dilatih menggunakan data latih dalam jumlah yang sangat besar. Model akan berusaha untuk memahami pola dan struktur data. Dengan memahami pola dan struktur data tersebut, model ini akan mampu menghasilkan berbagai jenis konten, seperti teks, gambar, audio, video, hingga kode program.

Kapabilitas Gen AI

Generasi Teks Read more

Internet of Things (IoT) adalah teknologi revolusioner yang menghubungkan berbagai perangkat fisik ke jaringan internet, memungkinkan komunikasi antar perangkat tanpa campur tangan manusia. Konsep ini telah membuka peluang baru dalam berbagai bidang, salah satunya adalah pengembangan kota pintar atau smart city. Kota pintar menggunakan teknologi IoT untuk meningkatkan efisiensi layanan publik, memantau kondisi kota secara real-time, serta meningkatkan kualitas hidup penduduknya. Dengan memanfaatkan data dari sensor dan perangkat IoT yang tersebar di seluruh kota, pemerintah dapat membuat keputusan yang lebih cepat dan tepat untuk menciptakan lingkungan yang lebih aman dan nyaman.

Pemanfaatan IoT dalam Infrastruktur Kota Pintar

Di dalam smart city, IoT memainkan peran kunci dalam mengelola infrastruktur kota secara lebih efisien. Salah satu implementasi utamanya adalah dalam sistem manajemen lalu lintas pintar. Melalui penggunaan sensor dan kamera yang terhubung ke jaringan IoT, data lalu lintas dapat dipantau secara real-time untuk mengidentifikasi kemacetan dan mengelola aliran kendaraan dengan lebih baik. Lampu lalu lintas yang berbasis IoT dapat diatur secara dinamis untuk merespons situasi lalu lintas yang berubah-ubah, membantu mengurangi kemacetan, dan waktu perjalanan. Selain itu, lampu jalan yang dilengkapi sensor cahaya dan gerak memungkinkan penghematan energi dengan menyesuaikan pencahayaan sesuai dengan kebutuhan. Implementasi teknologi ini tidak hanya meningkatkan efisiensi, tetapi juga mengurangi biaya operasional dan konsumsi energi kota.

IoT dalam Pengelolaan Lingkungan dan Energi

Read more