Analisis Web / Pengukuran Web - Crawler - Search Engine - Web Archive

Minggu, 28 April 2013 08.19 Diposting oleh L i n t a r 1 komentar


Analisis Web / Pengukuran Web
Analisis Web / Pengukuran Web adalah pengukuran, pengumpulan, analisis dan pelaporan data internet untuk tujuan memahami dan mengoptimalkan penggunaan web. Untuk menganalisa suatu website perlu di ketahui kriteria apa saja yang akan di analisa.


Tools Analisis Web
Kita perlu analisa website atau blog dengan layanan online untuk memeriksa detail informasi “accessibility” dari website/blog anda. Dibawah ini, ada 8 Tool Analisa Web yang dapat membantu anda untuk analisis website dengan memberikan informasi detail dari segi “accessibility” dan desain. Semua tool online dibawah ini, gratis dan sangat mudah untuk digunakan :

1.      Color Blindness Simulator
Colour Blindness Simulator, dapat membantu anda untuk memeriksa bagaimana aspek gambar dan pewarnaan (color) dari website/blog. Anda juga dapat dengan cepat upload file gambar (JPEG) dengan resolusi 1000x1000px  dan analisa aspek pewarnaan halaman website anda.

2.      Juicy Studios Image Analyzer
Dengan tool online ini, kita dapat menganalisa masalah setiap gambar yang ada pada halaman website. Tool ini juga, dapat menginformasikan detail informasi width, height, alt, dan longdesc, makanya tool website - Image Analyzer merupakan salah satu tool analisa website terbaik.

3.      Firefox Accessibility Extension
Jika anda termasuk pengguna web browser Firefox, maka Add-ons Friefox ini sangat penting karena dengan Add-ons ini, anda dapat aktifkan setiap element desain dari halaman website. Anda dapat dengan cepat buat daftar gambar dan element yang lain. Add-ons ini juga disertakan dengan standar validasi “W3C HTML Validator” .

4.      Test and Improve Readability
Tool Online gratis dengan fitur untuk testing dan meningkatkan konten website anda.


5.      LinkPatch
“Broken link”  membuat halaman webstie.blog dan yang lain menjadi tidak dapat diakses, hal ini adalah yang terpenting selain faktor SEO, tapi dengan tool seperti LinkPatch, untuk cek “broken link” dari semua URL yang anda inginkan. Dengan LinkPatch, anda dapat install kode tracking  dalam hitungan detik dengan fitur monitoring.

6.      WAVE
WAVE merupakan tool interaktif yang menunjukkan tingkat kunjungan dari website dengan 3 cara yang berbeda: “Errors, Features, and Alerts”, “Structure/Order”, dan Text-Only”.

7.      AccessColor
Tes AccessColor kontras warna dan “color brightness” antara bagian depan dan belakang dari semua element DOM. AccessColor akan menemukan kombinasi warna yang relevan dengan dokumen HTML dan CSS.

8.      aDesigner
aDesigner adalah simulator yang membantu desainer untuk memastikan konten dan aplikasinya diakses. aDesigner juga membantu user untuk cek aksesbility dokumen ODF dan Flash.


Parameter Pengukuran Web
Salah satu teknik mengukur dan menguji suatu kinerja web adalah dengan mengukur pengalaman seseorang atau user experience pengunjung situs yang berinteraksi dengan halaman-halaman web yang berada di internet (Keynote System, Inc 2010).

Kinerja suatu web atau web performance sangat dipengaruhi oleh beberapa komponen-komponen dasar yang dibagi menjadi dua bagian penting, yaitu (1) dilihat dari gambaran transaksi web atau perspective transaction dan (2) gambaran komponen aplikasi atau application component perspective (Keynote System, Inc 2010). Transaksi web atau web transaction lebih menitikberatkan pada sisi pengalaman pengguna atau user experience sedangkan komponen aplikasi lebih menitikberatkan pada komponen jaringan komputer atau computer network.

Pengalaman Pengguna (User experience), diantaranya adalah (Keynote System, Inc 2010) :
·         Time to opening page (time_to_opening_page), maksudnya adalah mengukur, dari sisi pengguna, waktu yang dibutuhkan pada saat pertama kali membuka halaman web. Waktu dimulai dari aksi pertama setelah internet agent memutuskan untuk berpindah ke halaman berikutnya. Waktu berakhir ketika pesan opening page ditampilkan di Web browser status bar.
·         Page download (page_download_time), maksudnya adalah waktu yang dibutuhkan antara ketika Web browser membuat sinyal opening page dan ketika Web browser akan menampilkan pesan done di status bar.


Komponen Jaringan
Komponen jaringan (network component) adalah salah satu hal yang mempengaruhi kinerja web. Beberapa komponen jaringan tersebut diantaranya adalah (Keynote System, Inc 2010):

·         DNS lookup (DNS_time), komponen ini berfungsi untuk menghitung waktu yang dibutuhkan untuk menterjemahkan host name (contoh, www.keynote.com) menjadi IP address (contoh, 206.79.179.108).
·         Initial connection (initial_connection), komponen ini mengukur waktu pulang pergi atau round-trip time (ukuran waktu yang dibutuhkan jaringan untuk melakukan perjalanan dari host sumber menuju host tujuan dan kembali lagi ke host sumber) koneksi jaringan antara browser dan server.
·         Request time (request_time), adalah jumlah waktu yang dibutuhkan oleh web browser untuk mengirim permintaan (request) ke internet.
·         Client time (client_time), adalah jumlah waktu untuk mengunduh elemen halaman web selama data dihantarkan.
·         Total measurement time (measurement_network), adalah jumlah waktu untuk mengunduh halaman web dilihat dari sudut pandang jaringan.


Disini kita akan membahas "Piwik Web Analytics"


Plugin ini memberikan Piwik Web Analytics data dalam pimcore menggunakan API Piwik itu. Ini terintegrasi di pimcore itu Laporan & Pemasaran kompleks. Hanya memberikan mandat API untuk instalasi Piwik Anda dalam Laporan & pengaturan Marketings (tab "Piwik"). 
Saat ini fitur ini diimplementasikan:
trackercode outputfilter yang menambahkan javascript neccessary ke kepala html itu
portlet untuk menyambut halaman
portlet untuk top 10 halaman
Laporan keseluruhan
Laporan untuk setiap halaman
Laporan global untuk Qr-kode







Crawler
Pengertian Crawler
Crawler adalah sebuah program/script otomatis yang memproses halaman web. Sering juga disebut dengan web spider atau web robot. Ide dasarnya sederhana dan mirip dengan saat anda menjelajahi halaman website secara manual dengan menggunakan browser. Bermula pada point awal berupa sebuah link alamat website dan dibuka pada browser, lalu browser melakukan request dan men-download data dari web server melalui protokol HTTP.
Setiap Hyperlink yang ditemui pada konten yang tampil akan dibuka lagi pada windows/tab browser yang baru, demikian proses terus berulang. Nah sebuah web crawler mengotomatisasikan pekerjaan itu.

Kesimpulannya, dua fungsi utama web crawler adalah:

1. Mengidentifikasikan Hyperlink.
   Hyperlink yang ditemui pada konten akan ditambahkan pada daftar visit, disebut juga dengan istilah frontier.

2. Melakukan proses kunjungan/visit secara rekursif.
  Dari setiap hyperlink, Web crawler akan menjelajahinya dan melakukan proses berulang, dengan ketentuan   yang disesuaikan dengan keperluan aplikasi.


Cara kerja Crawler
Cara kerja Crawler , pertama robot mengumpulkan informasi pada halaman blog/web dan semua media internet yg bisa diindeks oleh search engine. Robot tersebut kemudian membawa informasi yg didapatnya ke data center. Di data center, data tersebut kemudian di oleh sedemikian rupa, apabila memenuhi persyaratan, maka dia akan dimasukkan ke dalam indeks. Nah, proses yg dilakukan oleh user search engine adalah memanggil indeks-indeks tersebut, apabila indeks2 memiliki kesesuaian dengan yg dicari user (dan bila memiliki peringkat yg baik), di akan ditampilkan di halaman utama search engine (berperingkat).


Cara agar website/blog masuk dalam Crawler itu ada dua,
 Pertama : Membuat sitemap dan atau daftar isi
Sitemap (peta situs) blog berfungsi membantu search engine bot menjelajahi, menemukan dan mengindeks konten blog kita. Jika blog anda berplatform wordpress.org, cara paling mudah membuat sitemap adalah dengan memasang plugin bernama Google XML sitemaps. Sitemap sebenarnya hampir sama dengan halaman daftar isi yang sering kita buat di blog, hanya sitemap berisi kode-kode HTML yang dibaca oleh bot sedangkan daftar isi untuk dibaca oleh manusia. Jika anda ingin sitemap yang juga berfungsi sebagai daftar isi, gunakan plugin bernama Dagon Sitemap Generator. Beberapa themes seperti GoBlog Themes sudah menyediakan sitemap secara default seperti ini: Sitemap.
Kedua : Mendaftarkan sitemap di Google Webmaster Tools
Sitemap blog anda perlu didaftarkan di Google Webmaster Tools. Google webmaster sendiri penting diikuti oleh semua pemilik blog agar anda dapat menganalisa semua data yang berkenaan dengan blog anda. Melalui uji sitemap, kita bisa mengetahui konten mana di blog yang belum terindeks Google. Daftarkan dulu blog anda di Google Webmaster Tools.


Berikut ini adalah contoh-contoh dari Crawler:
1.Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.
2.HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com
3.Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.
4.Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.
5.YaCy
Sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central.
Contoh search engine yang menggunakan YaCy adalah Sciencenet (http://sciencenet.fzk.de) untuk pencarian dokumen di bidang sains.


Search Engine
Search engine adalah istilah atau penyebutan bagi website yang berfungsi sebagai mesin pencari, mesin pencari ini akan menampilkan informasi berdasarkan permintaan dari user pencari konten, konten yang ditampilkan adalah konten yang memang sudah terindex dan tersimpan di database server search engine-nya itu sendiri.
Saat ini sudah mulai banyak website search engine, namun dari sekian banyak search engine yang ada saat ini berikut ini beberapa search engine yang terbilang popular, seperti Yahoo!, Alltheweb, MSN, AskJeeves, Google, AltaVista, dan Lycos.

Yahoo!
(http://www.yahoo.com)
Salah satu portal terbesar di Internet, selain MSN., dan juga salah satu mesin pencaru tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.

Alltheweb
(http://www.alltheweb.com)
Keunggulan Alltheweb adalah pencarian file pada FTP Server. Tidak seperti web, FTP adalah teknologi internet yang ditujukan untuk menyimpan dan mendistribusikan file, biasanya program, audio atau video. Web sebenarnya lebih ditujukan untuk teks. Sejauh ini, hanya AllTheWeb yang menyediakan jasa pencarian file.

MSN
(http://search.msn.com)
Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai Internet Explorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Searchenginewatch mencatat MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada pencarian image, atau news. Menyediakan pencarian peta, yellow pages, white pages, pencarian pekerjaan, rumah.

AskJeeves
(http://www.ask.com)
Situs mesin pencari yang satu ini mengunggulkan kemampuannya untuk memahami bahasa manusia. Pengguna bisa menggunakan kalimat lengkap, bukan kata kunci. Situs ini berguna untuk mengetahui jawaban dari pertanyaan(misal: when did world war II end?).

Google:
(http://www.google.com)
Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian ?berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.

AltaVista
(http://www.altavista.com)
Satu saat, AltaVista pernah menjadi mesin pencari terbesar. Saat ini, selain Alltheweb, Altavista juga menawarkan pencarian audio dan video. Keunggulan AltaVista adalah pilihan pencarian yang paling lengkap di antara semua mesin pencari.

Lycos
(http://www.lycos.com)
Salah satu mesin pencari tertua. Saat ini Lycos lebih dikenal sebagai portal, sehingga fungsi pencarinya tidak terlalu menonjol. Lycos, selain mendukung pencarian web, juga menyediakan pencarian file MP3, dan video pada http://multimedia.lycos.com.


Perbedaan Serach Engine Yang Ada
Ada banyak sekali contoh perbedaan search engine, disini hanya akan ada beberapa yang saya jelaskan. Sebagai contoh, untuk Yahoo! dan Bing, On Page Keyword merupakan faktor yang paling penting, sedangkan untuk Google, Link-lah yang merupakan faktor yang sangat penting.
Selain itu, halaman website untuk Google adalah seperti wine – semakin tua umurnya, semakin bagus peringkatnya. Sedangkan untuk Yahoo! biasanya tidak mementingkan hal tersebut. Maka dari itulah, anda memerlukan waktu yang lebih banyak untuk membuat website anda matang untuk berada di peringkat atas di Google, daripada di Yahoo!.


Kerja Sebuah Search Engine
Jika anda ingin mencari sesuatu,tentunya telah memiliki sebuah kata kunci ( keyword ) untuk sesuatu yang anda cari.Sebuah search engine bekerja dengan menerima kata kunci dari pengguna,memproses dan menampilkan hasilnya.Akan lebih mudah dibayangkan jika anda terbiasa melakukan pemrograman data base dengan menggunakan Query atau SQL,karena tentunya anda telah terbiasa menampilkan data pada table-table dengan kriteria tertentu.Tapi,Web Search Engine yang tersedia saat ini telah memiliki kemampuan yang lebih baik dalam menerima dan mengolah keyword dari pengguna.

Bagaimana search engine menampilkan informasi dari gudang data yang sedemikian besar dalam waktu yang singkat..? Sebagaiman juga dengan pemrograman database,menggunakan indeks adalah salah satu cara ampuh untuk meningkatkanperforma kecepatan.Pencarian juga sudah tidak terbatas pada pencarian dokumen,tetapi sangat variatif tergantung pada kebutuhan anda.Anda dapat mencari gambar,musik,software, atau dokumen dengan fornat tertentu.

Hal lain yang tidak kalah penting bagaiman search engine ( terutama web search engine ) mengumpilkan semua data tersebut .Jangan kaget jika anda cukup aktif menulis pada forum.blog,mailing list atau mungkin sebagai spammer maka search engine dapat menampilkan ke seluruh dunia.Search engine mampu menemukan tulisan anda karena adanya metode pengambilan informasi ( Informatio Retrival/IR ) yang mencari metadata dan database yang tersebar di internet.Sebagai contoh,pada saat anda mengetikkan sebuah komentar pahit pada seseorang dan melakukan submit pada sebuah halaman website,halaman web yang berisi komentar anda telah tersedia bagi aplikasi-aplikasi IR untuk dibaca siapa saja yang melakukan pencarian dengan keyword yang tepat.


Web Archive
Web Archive adalah Sebuah file format terkompresi, didefinisikan oleh Java EE standar, untuk menyimpan semua sumber daya yang diperlukan untuk menginstal dan menjalankan aplikasi Web dalam satu file.


Cara Kerja Web Archiving
Yang paling umum web pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan web browser untuk menemukan website yang ingin dicari.


Contoh Web Archive
Local Website Archive
Aplikasi inilah yang memampukan kamu dapat dengan cepat untuk menyimpan dan mengarsipkan secara lengkap halaman web, disertai dengan keseluruhan gambar untuk tujuan digunakan sebagai referensi. Kamu dapat mengorganisasir arsip halaman web ke dalam kategori-kategori yang relevan atau sejenis, dan dapat menggunakan built-in browser display untuk menampilkannya secara offline.
Sebagai tambahan, kamu juga dapat melakukan pencarian keseluruhan halaman web yang tersimpan melalui penggunaan keyword, serta dapat melakukan ekspor secara keseluruhan ataupun beberapa item saja yang terseleksi ke dalam sebuah file executable selfextracting. File tersebutlah yang dapat digunakan untuk mengirimkan koleksi-koleksi kamu tersebut kepada teman, ataupun melakukan transfer ke sebuah komputer berbeda.

NAMA KELOMPOK

50411031        ABDUL WAHID
51411367        BAGUS INDRA PRATAMA
52411993        GALIH ANUGRAH RAMADHAN
54411118        LINTAR TAMARA
54411863        MUHAMMAD IDRAKI ZAKIRA

2IA16


Sumber :

Web Science

Minggu, 07 April 2013 07.22 Diposting oleh L i n t a r 0 komentar


Definisi Web Sience
Web Science merupakan salah satu penjabaran dari dua arti yang berbeda, yaitu web dan science. Website atau situs diartikan sebagai kumpulan halaman yang menampilkan informasi data teks, data gambar diam atau gerak, data animasi, suara, video dan atau gabungan dari semuanya, baik yang bersifat statis maupun dinamis yang membentuk satu rangkaian bangunan yang saling terkait dimana masing-masing dihubungkan dengan jaringan-jaringan halaman (hyperlink).
Science adalah segala sesuatu yang berhubungan dengan sumber ilmu pengetahuan yang memberikan manfaat bagi kehidupan manusia dan seluruh isinya. Dengan kata lain, science itu sendiri merupakan kumpulan ilmu pasti yang memberikan makna tersendiri bagi yang mempelajarinya.
Web Science dapat disimpulkan yaitu segala sesuatu yang berkaitan dengan ilmu pengetahuan yang diperoleh dari sumer yang akurat dan dapat di unduh dari dunia maya tanpa kita harus menuju ke sumber informasi yang ada di informasi yang ingin kita cari, sehingga memudahkan kita untuk memperoleh informasi.

Sejarah Web
WWW adalah suatu program yang ditemukan oleh Tim Berners-Lee pada tahun 1991. Awalnya Berners-Lee hanya ingin menemukan cara untuk menyusun arsip-arsip risetnya. Untuk itu, beliau mengembangkan suatu sistem untuk keperluan pribadi. Sistem itu adalah program peranti lunak yang diberi nama Enquire. Dengan program itu, Berners-Lee berhasil menciptakan jaringan yang menautkan berbagai arsip sehingga memudahkan pencarian informasi yang dibutuhkan. Inilah yang kelak menjadi dasar dari sebuah perkembangan pesat yang dikenal sebagai WWW.
WWW dikembangkan pertama kali di Pusat Penelitian Fisika Partikel Eropa (CERN), Jenewa, Swiss. Pada tahun 1989 Berners-lee membuat pengajuan untuk proyek pembuatan hiperteks global, kemudian pada bulan Oktober 1990, 'World Wide Web' sudah dapat dijalankan dalam lingkungan CERN. Pada musim panas tahun 1991, WWW secara resmi digunakan secara luas pada jaringan Internet.

Web 1.0
Web 1.0 merupakan teknologi web yang pertama, dikembangkan sebagai pengaksesan informasi serta memiliki sifat yang sedikit interaktif dibanding dengan versi selanjutnya, jadi secara garis besar, web 1.0 hanyalah bersifat read. Kita sebagai pengguna internet hanya bisa membaca apa yang ada di dalam website tersebut.

Karakteristik web 1.0:
1.  Merupakan halaman web yang statis atau hanya berfungsi untuk menampilakan.
2. Halaman masih didesain sebagai html murni, yang ‘hanya’ memungkinkan orang    untuk melihat tanpa ada interaksi.
3. Biasanya hanya menyediakan semacam buku tamu online tapi tidak ada interaksi yang intens
4. Masih menggunakan form – form yang dikirim melalui email, sehingga komunikasi biasanya satu arah.

Web 2.0
Web 2.0 pertama kalinya diperkenalkan oleh O’Reilly Media pada tahun 2004 sebagai teknologi Web generasi kedua yang mengedepankan kolaborasi dan sharing informasi secara online. Menurut Tim O’Reilly, Web 2.0 muncul yang merupakan revolusi bisnis di industri yang disebabkan penggunaan internet sebagai platform dan merupakan suatu percobaan untuk memahami aturan untuk mencapai keberhasilan platform baru.
Secara garis besar, web 2.0 bersifat read-write. Jadi, pada era web 2.0 ini pengguna internet terutama pada website tidak terpaku hanya ingin menulis untuk orang lain atas namanya sendiri, tetapi digunakan untuk saling berbagi ilmu atau yang lainnya sehingga dapat terbentuk suatu komunitas secara online dan tidak bersifat indivudual.

Prinsip-prinsip Web 2.0
1. Web sebagai platform
2. Data sebagai pengendali utama
3. Efek jaringan diciptakan oleh arsitektur partisipasi
4. Inovasi dalam perakitan sistem serta situs disusun dengan menyatukan fitur dari pengembang yang terdistribusi dan independen (semacam model pengembangan "open source")
5. Model bisnis yang ringan, yang dikembangkan dengan gabungan isi dan layanan
6. Akhir dari sikllus peluncuran (release cycle) perangkat lunak (perpetual beta)
7. Mudah untuk digunakan dan diadopsi oleh user

Contoh web 2.0
The Web as Platform
Aplikasi Web 2.0 menggunakan Web (atau Internet) sebagai platformnya. Apa sih yang dimaksud dengan platform ? Platform di sini adalah tempat suatu aplikasi dijalankan. Contoh platform yang terkenal adalah Windows, di mana ada aplikasi-aplikasi seperti Microsoft Office dan Adobe Photoshop. Menggunakan Internet sebagai platform berarti aplikasi-aplikasi tersebut dijalankan langsung di atas Internet dan bukan di atas satu sistem operasi tertentu. Contohnya adalah Google yang bisa diakses dari sistem operasi mana pun. Contoh lainnya adalah Flickr yang juga bisa diakses dari sistem operasi mana pun.
Kelebihannya jelas, aplikasi-aplikasi Web 2.0 ini tidak lagi dibatasi sistem operasi seperti pada Windows. Dan kita bahkan tidak perlu menginstall apapun untuk menggunakan aplikasi-aplikasi ini.














Web 3.0
Definisi untuk Web 3.0 sangat beragam mulai dari pengaksesan broadband secara mobile sampai kepada layanan Web berisikan perangkat lunak bersifat on-demand [Joh07]. Namun, menurut John Markoff, Web 3.0 adalah sekumpulan teknologi yang menawarkan cara baru yang efisien dalam membantu komputer mengorganisasi dan menarik kesimpulan dari data online.
Web 3.0 adalah revolusi web pada saat ini, atau disebut juga sebagai semantic web, dimana hubungan dunia TI dan telekomunikasi sangatlah dekat. Web 3.0 juga membutuhkan kecepatan internet yang memadai dan spesifikasi komputer yang lebih baik karena kebutuhan akan grafis atau tampilan yang ada pada web 3.0, yaitu visual yang berbasis 3D. web 3.0 ini masih dalam pengembangan, dan saat ini dikembangkan oleh secondlife, Google Co-Ops, bahkan di Indonesia sendiri juga sudah ada yang mulai mengembangkannya, yaitu Li’L Online (LILO) Community. Dan web 3.0 ini tidak hanya diekspresikan di dalam bahasa alami yang tidak dimengerti manusia, tetapi juga dalam bentuk yang dimengerti, diinterpretasi dan digunakan oleh software agents (perangkat lunak). Jadi, tujuan utama aweb 3.0 ini adalah perangkat lunak akan mampu mencari, membagi dan mengintegrasikan informasi dengan cara yang lebih mudah. Pembuatan web 3.0 ini dimungkinkan dengan adanya sekumpulan standar yang dikoordinas oleh W3C (World Wide Web Consortium). Dan standar yang paling penting untuk web 3.0 adalah XML, XML Schema, RDF OWL dan SPARQL.

Web 3.0 terdiri dari:

-Web semantik
-Format mikro
-Pencarian dalam bahasa pengguna
-Penyimpanan data dalam jumlah besar
-Pembelajaran lewat mesin
-Agen rekomendasi, yang merujuk pada kecerdasan buatan Web

Perbedaan nya:







Arsitektur Website
Arsitektur Website adalah suatu pendekatan terhadap desain dan perencanaan situs yang, seperti arsitektur itu sendiri, melibatkan teknis, kriteria estetis dan fungsional. Seperti dalam arsitektur tradisional, fokusnya adalah benar pada pengguna dan kebutuhan pengguna. Hal ini memerlukan perhatian khusus pada konten web, rencana bisnis, kegunaan, desain interaksi, informasi dan desain arsitektur web. Untuk optimasi mesin pencari yang efektif perlu memiliki apresiasi tentang bagaimana sebuah situs Web terkait dengan World Wide Web.
Sejak web perencanaan isi, desain dan manajemen datang dalam lingkup metode desain, Vitruvian tradisional tujuan komoditas, keteguhan dan kesenangan dapat memandu arsitektur situs, seperti yang mereka lakukan arsitektur fisik dan disiplin desain lainnya. Website arsitektur akan datang dalam ruang lingkup estetika dan teori kritis dan kecenderungan ini dapat mempercepat dengan munculnya web semantik dan web 2.0. Kedua ide menekankan aspek struktur informasi. Strukturalisme adalah sebuah pendekatan untuk pengetahuan yang telah dipengaruhi sejumlah disiplin akademis termasuk estetika, teori kritis dan postmodernisme. Web 2.0, karena melibatkan user-generated content, mengarahkan perhatian arsitek website untuk aspek-aspek struktur informasi.

“Website arsitektur” memiliki potensi untuk menjadi istilah yang digunakan untuk disiplin intelektual mengatur konten website. ”Web desain”, dengan cara kontras, menggambarkan tugas-tugas praktis, bagian-bagian-grafis dan teknis, dari merancang dan menerbitkan sebuah situs web. Perbedaan tersebut dibandingkan dengan yang antara tugas mengedit sebuah koran atau majalah dan desain grafis dan pencetakan.

Tetapi hubungan antara editorial dan kegiatan produksi adalah lebih dekat untuk publikasi web daripada untuk penerbitan cetak.

Ada tiga standar utama untuk penerapan web services. Standar-standar ini mendukung pertukaran data berbasis XML. Tiga standar tersebut meliputi SOAP, WSDL, dan UDDI. Berikut bakal tak jelaskan secara singkat mengenai standar tersebut.


SOAP ( Simple Object Access Protocol )

Protokol ini mendukung proses pengkodean data (biasanya XML) dan transfernya melalui HTTP (Hyper Text Transfer Language). Dalam konteks web services, SOAP adalah suatu bahasa versi bebas dari protokol RPC (Remote Procedure Caoll) yang berguna untuk proses transaksi melalui HTTP standar. SOAP membuat klien web service dapat memilih beberapa parameter mengenai permintaannya dan memberikannya kpd si penyedia. Ketika penyedia menganggapi permintaan tersebut, maka terjadilah web services.

WSDL ( Web Services Description Language )

Merupakan bahasa berbasis XML yang menjelaskan fungsi-fungsi dalam web services. WSDL menyediakan cara untuk memanfaatkan kapabilitas web services. WSDL memberi tahu mesin lain bagaimana memformat/ menterjemahkan permintaan yang diterima berikut respon mereka agar proses web service bisa berjalan. Singkatnya, WSDL adalah bahasa yang memungkinkan berbagai dokumen yang dibuat dalam aplikasi yang berbeda dapat berkomunikasi.

UDDI (Universal Description Discovery and Integration )

Adalah semacam direktori global untuk mengelola web services. Fungsinya mirip dengan Yellow Pages untuk versi web services. UDDI berisi informasi tentang penawaran atau layanan apa yang ditawarkan perusahaan berikut dengan detil teknis bagaimana cara mengaksesnya. Inforamsi tersebut ditulis dalam bentuk file-file WSDL.

Applikasi Web dalam rekayasa perangkat lunak, suatu aplikasi web (bahasa Inggris: web application atau sering disingkat webapp) adalah suatu aplikasi yang diakses menggunakan penjelajah web melalui suatu jaringan seperti Internet atau intranet. Ia juga merupakan suatu aplikasi perangkat lunak komputer yang dikodekan dalam bahasa yang didukung penjelajah web (seperti HTML, JavaScript, AJAX, Java, dll) dan bergantung pada penjelajah tersebut untuk menampilkan aplikasi.

Aplikasi web menjadi populer karena kemudahan tersedianya aplikasi klien untuk mengaksesnya, penjelajah web, yang kadang disebut sebagai suatu thin client (klien tipis). Kemampuan untuk memperbarui dan memelihara aplikasi web tanpa harus mendistribusikan dan menginstalasi perangkat lunak pada kemungkinan ribuan komputer klien merupakan alasan kunci popularitasnya. Aplikasi web yang umum misalnya webmail, toko ritel daring, lelang daring, wiki, papan diskusi, weblog, serta MMORPG

Simantik Web
Pengertian Semantic Web (Web Semantik) atau Definisi Semantic Web adalah pengembangan dariWorld Wide  Web di mana makna semantik dari informasi di web didefinisikan, sehingga memungkinkan mesin untuk memprosesnya. Semantic Web berasal dari World Wide  WebKonsorsium dari Web sebagai media universal data, informasi, dan pertukaran pengetahuan.
Semantic Web terdiri dari seperangkat prinsip-prinsip desain, kelompok kerja kolaboratif, dan berbagai teknologi. Beberapa elemen dari Semantic Web yang dinyatakan sebagai calon masa depan dan unsur-unsur lain dari Semantic Web disajikan dalam spesifikasi formal dimaksudkan untuk memberikan deskripsi formal konsep, istilah, dan hubungan dalam satu domain tertentu.
Istilah Web Semantik itu sendiri diperkenalkan oleh Tim Berners-Lee, penemu World Wide Web. Sekarang, prinsip web semantik disebut-sebut akan muncul pada Web 3.0, generasi ketiga dari World Wide Web. Bahkan Web 3.0 itu sendiri sering disamakan dengan Web Semantik. Web Semantikmenggunakan XML, XMLS (XML Schema), RDF, RDFS (Resources Description Framework Schema) dan OWL.
Web Semantik merujuk kepada kemampuan aplikasi komputer untuk lebih memahami bahasa manusia, bukan hanya bahasa yang baku dari para penggunanya tetapi juga bahasa yang lebih kompleks, seperti dalam bahasa percakapan sehingga memudahkan penggunanya untuk berkomunikasi dengan mesin. Web Semantik dapat mengolah bahasa dan mengenali homonim, sinonim, atau atribut yang berbeda pada suatu database.
RDF – Resource Data Framework

1.      Definisi RDF
RDF merupakan framework untuk menggambarkan resource Web, seperti judul, penulis, tanggal modifikasi, konten, dan informasi hak cipta dari halaman Web.

2.       Penulisan RDF
Dokumen RDF ditulis dalam XML. Bahasa XML yang digunakan oleh RDF disebut RDF / XML. Dengan menggunakan XML, informasi RDFdengan mudah dapat dipertukarkan antara berbagai jenis komputer menggunakan berbagai jenis sistem operasi dan bahasa aplikasi.

3.      Hubungan RDF dengan Semantic Web
Bahasa RDF adalah bagian dari Kegiatan Semantic Web W3C. W3C “Visi Semantic Web” adalah masa depan di mana:
Informasi Web memiliki arti yang tepat
Informasi Web dapat dipahami dan diproses oleh computer
Komputer dapat mengintegrasikan informasi dari web

4.      Manfaat RDF
Dengan menyediakan kerangka kerja yang konsisten, Resource Description Framework ( Rdf ) akan mendorong pemberian metadata tentang sumber daya Internet.
Karena Resource Description Framework ( Rdf ) juga mencakup standar sintaks untuk menggambarkan dan query data, maka perangkat lunak yang memanfaatkan metadata akan lebih mudah menjalankanya dan lebih cepat untuk menghasilkannya.
Standarisasi sintaks dan kemampuan permintaan akan memungkinkan aplikasi untuk bertukar informasi dengan lebih mudah.
Mesin pencari akan mendapatkan hasil yang lebih tepat dari pencarian, berdasarkan metadata bukan pada indeks yang berasal dari pengumpulan teks lengkap.
Para pengembang perangkat lunak akan memiliki data yang lebih tepat untuk bekerja dengan lebih cerdas.

5.      Cara Kerja RDF
Sebuah sumber daya Internet didefinisikan sebagai semua sumber daya dengan Uniform Resource Identifier ( Uri ). Ini termasuk Uniform Resource Locators ( Url ) yang mengidentifikasi seluruh situs Web serta halaman Web tertentu. Seperti tag Meta pada Html saat ini , laporan deskripsi Resource Description Framework ( Rdf ), terbungkus sebagai bagian dari bagian Extensible Markup Language ( Xml ), dapat dimasukkan dalam halaman web ( yaitu,file  Hypertext Markup Language – Html – ) atau bisa dalam file yang terpisah.

6.      Aturan RDF
RDF Resource adalah segala sesuatu yang berisi URI seperti http://www.sembarang.com/coba
Property adalah resource yang memiliki nama, contoh “pemilik” atau “blog”
Property Value adalah nilai dari property, seperti “Leyser Timang” atau dapat juga berupa resource.
Resource Description Framework (RDF) adalah spesifikasi yang dibuat oleh W3C sebagai metode umum untuk memodelkan informasi dengan menggunakan sekumpulan format sintaks. Ide dasar dari RDF adalah bagaimana kita dapat membuat pernyataan mengenai sebuah resource Web dalam bentuk ekpresi “Subjet-Predikat-Objek”. Dalam terminology RDF, SPO ini seringkali disebut dengan istilah N-triple.

7.      RDF Schema
RDF Schema dapat dipandang sebagai kamus data atau vocabulary untuk mendeskripsikan properties dan classes dari resources RDF.
Bisa dikatakan bahwa ketiganya mempunya fungsi yang saling berkaitan erat satu sama lain dalam membentuk RDF yaitu mengidentifikasi menggunakan web identifiers (URIs) dan menjabarkan resource dengan properties dan property values. Ketiga unsur ini kemudian dikombinasikan membentuk sebuah statement yang memiliki sebuah subjek, predikat dan objek.

8.      Subjet-Predikat-Objek (SPO) pada RDF
Subjek mengacu pada resource yang ingin dideksripsikan.
Predikat menggambarkan kelakuan atau karakteristik dari resource tersebut dan mengekspresikan hubungan antara subjek dan objek.
Contoh Statement :
          “http://fti.unisbank.ac.id memiliki title FTI Universitas Stikubank”
         + subjek  : http://fti.unisbank.ac.id
+ predikat: title
+ objek   : FTI Universitas Stikubank
+ Jika menggunakan RDF =
<?xml version=”1.0″?>
<rdf:RDF xmlns:rdf=”http://www.w3.org/1999/02/22-rdf-syntax-ns#&#8221; xmlns:data=”http://fti.unisbank.ac.id/”&gt;
<rdf:Description rdf:about=”http://fti.unisbank.ac.id/”&gt;
<data:title>FTI Universitas Stikubank</data:title>
<data:author>Dwi Budi Santoso</data:author>
</rdf:Description>
</rdf:RDF>

9.      Contoh Penggunaan RDF
Menggambarkan properti untuk item belanja, seperti harga dan ketersediaan
Menggambarkan time schedule untuk web event
Menggambarkan informasi tentang halaman web (konten, penulis, tanggal dibuat dan dimodifikasi)
Menggambarkan isi dan rating untuk gambar web
Menggambarkan konten untuk mesin pencari
Menggambarkan perpustakaan elektronik

10.  RDF online validator


Pengertian Website Security Sistem
Keamanan suatu website atau web security systems merupakan salah satu prioritas yang sangat utama bagi seorang webmaster. Jika seorang webmaster mengabaikan keamanan suatu website, maka seorang hacker dapat mengambil data-data penting pada suatu website dan bahkan pula dapat mengacak-acak tampilan website (deface) tersebut. Selama ini, ­­­­­­kebanyakan kita, entah para blogger atau pemilik perusahaan baik kecil atau menengah, tidak terlalu memperhatikan website-nya setelah website-nya eksis di Internet. Setelah dibuat dan diupload ke server hostingan, website-nya ditinggal begitu saja. Jarang di-update, lebih jarang lagi dipromosikan, dan yang paling jarang adalah memperhatikan masalah keamanan website-nya. Padahal selesai membuat website itu kira-kira baru separuh saja dari upaya memanfaatkan potensi Internet untuk mendukung usaha kita. Salah satu yang paling vital adalah masalah keamanan. Seringkali kita mengira setelah website diupload di server hosting, websitekita bakal aman-aman saja.
Tapi sayangnya pemikiran itu salah. Seringkali para peretas (hacker) dancracker itu tidak mempunyai tujuan apa-apa saat nge-hack suatu website(kecuali masalah politik seperti Indonesia vs Malaysia kemarin). Bahkan seringkali dia tidak mengngerti bahasa dari website yang diserang, karena mereka hacker dari negara asing. Mereka hanya ingin memanfaatkan lubang-lubang keamanan dalam website milik kita.
Banyak sekali kasus website yang di-hack, di-deface, dan isi databasenya hilang sebagian. Bahkan blog gratisan sekalipun bisa jadi sasaran, diserang juga dengan efek yang sama, para hacker atau cracker tidak memandang sasarannya. Website milik pemrintahan juga tidak lepas untuk jadi sasaran.

Pengertian Hacker dan Cracker
Hacker muncul pada awal tahun 1960-an diantara para anggota organisasi mahasiswa Tech Model Railroad Club di Laboratorium Kecerdasan Artifisial Massachusetts Institute of Technology (MIT). Kelompok mahasiswa tersebut merupakan salah satu perintis perkembangan teknologi komputer dan mereka beroperasi dengan sejumlah komputer mainframe. Kata hacker pertama kali muncul dengan arti positif untuk menyebut seorang anggota yang memiliki keahlian dalam bidang komputer dan mampu membuat program komputer yang lebih baik dari yang telah dirancang bersama. Kemudian pada tahun 1983, analogi hacker semakin berkembang untuk menyebut seseorang yang memiliki obsesi untuk memahami dan menguasai sistem komputer. Pasalnya, pada tahun tersebut untuk pertama kalinya FBI menangkap kelompok kriminal komputer The 414s yang berbasis di Milwaukee AS. 414 merupakan kode area lokal mereka. Kelompok yang kemudian disebut hacker tersebut dinyatakan bersalah atas pembobolan 60 buah komputer, dari komputer milik Pusat Kanker Memorial Sloan-Kettering hingga komputer milik Laboratorium Nasional Los Alamos. Salah seorang dari antara pelaku tersebut mendapatkan kekebalan karena testimonialnya, sedangkan 5 pelaku lainnya mendapatkan hukuman masa percobaan.
Kemudian pada perkembangan selanjutnya muncul kelompok lain yang menyebut-nyebut diri hacker, padahal bukan. Mereka ini (terutama para pria dewasa) yang mendapat kepuasan lewat membobol komputer dan mengakali telepon (phreaking). Hacker sejati menyebut orang-orang ini ‘cracker’ dan tidak suka bergaul dengan mereka. Hacker sejati memandang cracker sebagai orang malas, tidak bertanggung jawab, dan tidak terlalu cerdas. Hacker sejati tidak setuju jika dikatakan bahwa dengan menerobos keamanan seseorang telah menjadi hacker. Para hacker mengadakan pertemuan setiap setahun sekali yaitu diadakan setiap pertengahan bulan Juli di Las Vegas. Ajang pertemuan hacker terbesar di dunia tersebut dinamakan Def Con. Acara Def Con tersebut lebih kepada ajang pertukaran informasi dan teknologi yang berkaitan dengan aktivitas hacking.

A. Hacker
Hacker adalah sebutan untuk mereka yang memberikan sumbangan yang bermanfaat kepada jaringan komputer, membuat program kecil dan membagikannya dengan orang-orang di Internet. Sebagai contoh : digigumi (Grup Digital) adalah sebuah kelompok yang mengkhususkan diri bergerak dalam bidang game dan komputer. Digigumi ini menggunakan teknik teknik hexadecimal untuk mengubah teks yang terdapat di dalam game. Contohnya, game Chrono Trigger berbahasa Inggris dapat diubah menjadi bahasa Indonesia. Oleh karena itu, status Digigumi adalah hacker, namun bukan sebagai perusak. Hacker disini artinya, mencari, mempelajari dan mengubah sesuatu untuk keperluan hobi dan pengembangan dengan mengikuti legalitas yang telah ditentukan oleh developer game. Para hacker biasanya melakukan penyusupan-penyusupan dengan maksud memuaskan pengetahuan dan teknik. Rata – rata perusahaan yang bergerak di dunia jaringan global (internet) juga memiliki hacker. Tugasnya yaitu untuk menjaga jaringan dari kemungkinan perusakan pihak luar “cracker”, menguji jaringan dari kemungkinan lobang yang menjadi peluang para cracker mengobrak – abrik jaringannya, sebagai contoh : perusahaan asuransi dan auditing “Price Waterhouse”. Ia memiliki team hacker yang disebut dengan Tiger Team. Mereka bekerja untuk menguji sistem sekuriti client mereka.

B. Cracker
Cracker adalah sebutan untuk mereka yang masuk ke sistem orang lain dan cracker lebih bersifat destruktif, biasanya di jaringan komputer, mem-bypass password atau lisensi program komputer, secara sengaja melawan keamanan komputer, men-deface (merubah halaman muka web) milik orang lain bahkan hingga men-delete data orang lain, mencuri data dan umumnya melakukan cracking untuk keuntungan sendiri, maksud jahat, atau karena sebab lainnya karena ada tantangan. Beberapa proses pembobolan dilakukan untuk menunjukan kelemahan keamanan sistem.
Berikut 7 Teknik Hacker Menembus Keamanan Sebuah Website, yaitu :

IP Spoofing
IP Spoofing juga dikenal sebagai Source Address Spoofing, yaitu pemalsuan alamat IP attacker sehingga sasaran menganggap alamat IP attacker adalah alamat IP dari host di dalam network bukan dari luar network. Misalkan attacker mempunyai IP address type A 66.25.xx.xx ketika attacker melakukan serangan jenis ini maka Network yang diserang akan menganggap IP attacker adalah bagian dari Networknya misal 192.xx.xx.xx yaitu IP type C.
IP Spoofing terjadi ketika seorang attacker ?mengakali? packet routing untuk mengubah arah dari data atau transmisi ke tujuan yang berbeda. Packet untuk routing biasanya di transmisikan secara transparan dan jelas sehingga membuat attacker dengan mudah untuk memodifikasi asal data ataupun tujuan dari data. Teknik ini bukan hanya dipakai oleh attacker tetapi juga dipakai oleh para security profesional untuk men tracing identitas dari para attacker

FTP Attack
Salah satu serangan yang dilakukan terhadap File Transfer Protocol adalah serangan buffer overflow yang diakibatkan oleh malformed command. tujuan menyerang FTP server ini rata-rata adalah untuk mendapatkan command shell ataupun untuk melakukan Denial Of Service. Serangan Denial Of Service akhirnya dapat menyebabkan seorang user atau attacker untuk mengambil resource didalam network tanpa adanya autorisasi, sedangkan command shell dapat membuat seorang attacker mendapatkan akses ke sistem server dan file-file data yang akhirnya seorang attacker bisa membuat anonymous root-acces yang mempunyai hak penuh terhadap system bahkan network yang diserang

Unix Finger Exploits
Pada masa awal internet, Unix OS finger utility digunakan secara efficient untuk men sharing informasi diantara pengguna. Karena permintaan informasi terhadap informasi finger ini tidak menyalahkan peraturan, kebanyakan system Administrator meninggalkan utility ini (finger) dengan keamanan yang sangat minim, bahkan tanpa kemanan sama sekali. Bagi seorang attacker utility ini sangat berharga untuk melakukan informasi tentang footprinting, termasuk nama login dan informasi contact.
Utility ini juga Menyediakan keterangan yang sangat baik tentang aktivitas user didalam sistem, berapa lama user berada dalam sistem dan seberapa jauh user merawat sistem. Informasi yang dihasilkan dari finger ini dapat meminimalisasi usaha kracker dalam menembus sebuah sistem. Keterangan pribadi tentang user yang dimunculkan oleh finger daemon ini sudah cukup bagi seorang atacker untuk melakukan social engineering dengan menggunakan social skillnya untuk memanfaatkan user agar ?memberitahu? password dan kode akses terhadap system.

Flooding & Broadcasting
Seorang attacker bisa menguarangi kecepatan network dan host-host yang berada di dalamnya secara significant dengan cara terus melakukan request/permintaan terhadap suatu informasi dari sever yang bisa menangani serangan classic Denial Of Service(Dos), mengirim request ke satu port secara berlebihan dinamakan flooding, kadang hal ini juga disebut spraying. Tujuan dari kedua serangan ini adalah sama yaitu membuat network resource yang Menyediakan informasi menjadi lemah dan akhirnya menyerah.
Serangan dengan cara Flooding bergantung kepada dua faktor yaitu: ukuran dan/atau volume (size and/or volume). Seorang attacker dapat menyebabkan Denial Of Service dengan cara melempar file berkapasitas besar atau volume yang besar dari paket yang kecil kepada sebuah system. Dalam keadaan seperti itu network server akan menghadapi kemacetan: terlalu banyak informasi yang diminta dan tidak cukup power untuk mendorong data agar berjalan. Pada dasarnya paket yang besar membutuhkan kapasitas proses yang besar pula, tetapi secara tidak normal paket yang kecil dan sama dalam volume yang besar akan menghabiskan resource secara percuma, dan mengakibatkan kemacetan

Fragmented Packet Attacks
Data-data internet yang di transmisikan melalui TCP/IP bisa dibagi lagi ke dalam paket-paket yang hanya mengandung paket pertama yang isinya berupa informasi bagian utama( kepala) dari TCP. Beberapa firewall akan mengizinkan untuk memroses bagian dari paket-paket yang tidak mengandung informasi alamat asal pada paket pertamanya, hal ini akan mengakibatkan beberapa type system menjadi crash. Contohnya, server NT akan menjadi crash jika paket-paket yang dipecah(fragmented packet) cukup untuk menulis ulang informasi paket pertama dari suatu protokol

E-mail Exploits
Peng-exploitasian e-mail terjadi dalam lima bentuk yaitu: mail floods, manipulasi perintah (command manipulation), serangan tingkat transportasi(transport level attack), memasukkan berbagai macam kode (malicious code inserting) dan social engineering(memanfaatkan sosialisasi secara fisik). Penyerangan email bisa membuat system menjadi crash, membuka dan menulis ulang bahkan mengeksekusi file-file aplikasi atau juga membuat akses ke fungsi fungsi perintah (command function)

DNS and BIND Vulnerabilities
Berita baru-baru ini tentang kerawanan (vulnerabilities) tentang aplikasi Barkeley Internet Name Domain (BIND) dalam berbagai versi mengilustrasikan kerapuhan dari Domain Name System (DNS), yaitu krisis yang diarahkan pada operasi dasar dari Internet (basic internet operation)
Mengamankan atau Memperkuat Security Web dengan Kombinasi Password yang aman
Meningkatkan Security Website terutama website wordpress, sangatlah penting terutama untuk mencegah hacker masuk menembus sistem keamanan website kita, salah satu memperkuat website dengan cara memperkuat password yang kita gunakan.
kami sangat menganjurkan tidak menggunakan password yang sangat mudah dan gampang diingat, karena hal seperti ini sangat mudah diketahui oleh para hacker atau defacer.
Membuat Password yang sedikit memiliki karakter yang kuat sebenarnya tidaklah sulit, caranya seperti dibawah ini :
Langkah pertama adalah coba pikirkan nama password yang mudah diingat dan tepat Contoh : nama kota kelahiran, nama hewan peliharaan, ataupun nama orang yang berarti untuk anda.
Jika sudah mendapatkan nama yang mudah diingat, usahakan panjang dari nama tersebut > min 7 karakter. contoh kali ini saya akan membuat password dengan nama kota di USA yaitu : california,  jika kita perhatikan perhuruf dari kata california mempunyai huruf sebanyak 10 huruf ( c-a-l-i-f-o-r-n-i-a ) ini sangat bagus.
Langkah selanjutnya anda harus memasukan kombinasi huruf besar (uppercase) dan huruf kecil (lowercase) contohnya : CaliForNia.
Kami sarankan anda Selain mempergunakan kombinasi huruf besar dan huruf kecil, password juga harus memiliki kombinasi angka. Contoh : C4l1ForN1a
Ingat perpaduan antara huruf besar dan kecil juga angka belumlah tentu aman, Langkah terakhir yang harus anda lakukan adalah menambah simbol ataupun karakter khusus seperti (!, @, #, $, %, ^, &, *, (, ), -, +, /, =, ?, dan sebagainya). Contoh : C@l1ForN!1@.

Tips : Ingat Password adalah sebagian kecil dari cara memperkuat security, banyak hal lainnya yang bisa dilakukan untuk memperkuat security website anda. sepeerti cek script website yang anda gunakan, apakah mempunyai celah atau bug, lakukan update versi script website anda secara berkala, lakukan penggantian password anda secara berkala, dan lain-lain

Sekilas tentang Web Ontology Language (OWL)

OWL adalah salah satu bentuk ontology yang memang dirancang dengan tujuan untuk digunakan oleh aplikasi yang perlu memproses isi informasi ketimbang menampilkan informasi untuk konsumsi manusia. OWL merupakan rekomendasi W3C (World Wide Web Consortium) dalam penulisan ontology untuk web untuk web semantic. OWL dituliskan dalam syntax XML (eXtended Markup Language). Selain XML dalam OWL digunakan juga bahasa XMLS (XML Schema), RDF (Resource Description Framework) dan RDFS (RDF Schema) dan OWL itu sendiri.
Tentang ontology sendiri insya allah nanti akan saya bahas dalam postingan tersendiri (semoga ada waktu  ). OWL menyediakan 3 sub bahasa yang expressive yang dirancang untuk digunakan oleh komunitas user/implementer tertentu, yakni:
1.      OWL lite
2.      OWL DL dan
3.      OWL Full
OWL lite disediakan untuk pengguna yang secara prinsip memerlukan hirarki klasifikasi dan batasan sederhana. Sebagai contoh jika menggunakan batasan kardinalitas, ia hanya mengijinkan nilai kardinalitas 0 dan 1.
OWL DL (Description Logic) disediakan untuk pengguna yang ingin ekspresi maksimal untuk komputasi dalam artian semua kesimpulan dijamin computabledan decidable. OWL DL meliputi semua  bahasa OWL dan mendukung reasoning
OWL Full tersedia untuk pengguna yang ingin mengekspresikan bahasa secara maksimum dan syntaknya bebas dari RDF dengan tidak ada jaminan bahwa iacomputable. Sepertinya tidak ada software reasoning yang akan dapat digunakan untuk mendukung resoning yang komplit dari setiap feature dalam OWL Full.
Mengapa menggunakan OWL? Awalnya adalah adanya ide dan visi dari web semantic. Visi untuk masa depan yang mana informasi diberikan secara eksplisit yang membuat mesin / komputer bisa mengerti dan mampu memproses informasi itu secara otomatis dan mampu mengintegrasikan informasi yang tersedia di web. Komputer diharapkan mampu melakukan proses reasoningsebagaimana yang dilakukan manusia. Ontology merupakan bahasa  untuk mesin yang digunakan untuk merepresentasikan suatu informasi secara eksplisit. Ontology juga mendukung adanya reasoning. Itulah mengapa OWL penting dalam mewujudkan visi web semantic.


NAMA KELOMPOK


50411031 ABDUL WAHID
51411367 BAGUS INDRA PRATAMA
52411993 GALIH ANUGRAH RAMADHAN
54411118 LINTAR TAMARA
54411863 MUHAMMAD IDRAKI ZAKIRA



2IA16





Daftar pustaka:
http://jr-hiezkia.blogspot.com/2011/08/perkembangan-teknologi-web-10-web-20.html
http://baldwings.wordpress.com/2010/06/11/web-semantik-web3-0/
http://rizkipriharto.blogspot.com/2011/02/perbedaan-web-10-20-dan-30.html
http://www.tipsntrick.net/artikel/6-web-design/184-tinggalkan-web-2-0-beralih-ke-web-3-0
http://blog.adsentra.com/web-30-memberikan-bukti-tanpa-janji.html
http://www.managementfile.com/journal.php?sub=journal&awal=20&page=ict&id=304
http://www.ewawan.com/pengertian-web-semantik.html
http://dhitovans.blogspot.com/2011/02/sejarah-web-science.html
http://belajarintoday.blogspot.com/2013/03/arsitektur-web-dan-applikasinya.html
http://yuhana.wordpress.com/2008/05/29/sekilas-tentang-web-ontology-language-owl/
http://edomz.wordpress.com/tag/rdf/
http://djavanese.wordpress.com/2011/01/08/makalah-website-security-systems/
http://onthespot7langka.blogspot.com/2011/10/7-teknik-hacker-menembus-keamanan.html
http://blog.balimediahosting.com/mengamankan-ataumemperkuat-security-web-wordpress-dengan-kombinasi-password-yang-aman/