Robot AI yang diharapkan memberantas korupsi, mengawali kerjanya setelah input data. Data berupa syarat teknis maupun administratif, untuk menjadi pemasok terpilih. Terhadap data itu, machine learning mempelajari seluruhnya dan membangun algoritma yang mengategori kelayakan pemasok. Saat proses dijalankan lebih lanjut oleh deep learning, robot AI dapat memetakan peluang terjadinya kegagalan pasokan oleh peserta lelang terpilih. AI dengan data-data kaya yang tersedia, mampu membangun wawasan tak terduga yang ketika mengandalkan manusia, tak terjangkau.
Mengikuti uraian itu, titik-titik rawan subjektivitas dapat dikenali dan dieliminasi. Subjektivitas penilaian akibat suap yang memengaruhi pengambilan keputusan juga akibat nepotisme yang dapat mengubah keputusan. Seluruh subjektivitas yang memfasilitasi terjadinya korupsi. Jadi lain keadaannya, ketika proses-proses yang rawan subjektivitas dilakukan robot AI. Robot AI menyusun keputusan, hanya berdasar data yang telah diinput pada sistem. Ini tampaknya yang menjadi tujuan Pemerintah Albania, eliminasi subjektivitas demi hilangnya korupsi.
Utopia pemberantasan korupsi yang mengandalkan robot AI jadi niscaya. Utamanya saat akar masalahnya adalah subjektivitas manusia. Namun menjadi tak tercapai, ketika mempertimbangkan AI blackbox. Fenomena ini adalah keadaan-keadaan yang tak selalu dipahami saat menggunakan AI, tak dipahami penggunanya, juga oleh cerdik pandai yang mengembangkan AI. Keadaan yang tampaknya lebih tepat disebut misteri AI. Baru terungkap saat ada keganjilan. Itu penjelasannya tak memberi kepastian. Baru ketika peluang-peluang teoritisnya dipetakan, kebolehjadiannya dapat diperkirakan. Tingkatannya pun diperkirakan, belum dipastikan.
Salah satu contohnya bias. Bias pada AI tak selalu dapat dilacak. Saat Amazon mengandalkan AI untuk melakukan penerimaan pegawainya, dicurigai terjadi bias. Bias terendus, saat penanggung jawab memeriksa komposisi pegawai yang diterima, lebih banyak laki-laki dibanding perempuan. Sementara Amazon tak berniat melakukan diskriminasi gender. Melihat kejanggalan itu, dilakukan pemeriksaan data yang diproses machine learning. Hasilnya, ada data yang ketika terbaca oleh perangkat, salah satu gender dianggap lebih cocok mengisi posisi itu. Misalnya data "pekerjaan berkaitan dengan penggunaan perangkat teknologi tinggi". Di sini perangkat AI seakan diperintah, mencari laki-laki dibanding perempuan.
Pada robot AI antikorupsi, bias itu juga dapat terjadi. Manakala panitia lelang menggunakan data pemasok-pemasok yang telah dianggap mampu oleh pemerintah, bisa jadi justru berisi pemasok-pemasok yang menyuap atau nepotisme dengan panitia lelang. Data ini bias. Dengan prinsip "data buruk yang masuk, buruk pula hasilnya", penggunaan robot AI tak mampu mencegah keburukan. Alih-alih sistem menghasilkan pemasok yang bebas korupsi, sistem tak bisa membebaskan dirinya dari bias yang tak disadari.
Persoalan AI blackbox lainnya, transparansi. Pemilihan pemasok yang hendak menjamin transparansi, kadang sulit dipenuhi sistem berbasis AI. Tak semua keputusan yang dihasilkannya dapat dipahami. Saat AI digunakan di Inggris untuk menentukan hukuman bagi residivis agar proses pengadilannya lebih mudah, cepat dan murah, justru sulit dinilai transparansinya. Pada penjahat kambuhan yang dalam wawancaranya berniat menjadikan kejahatan yang menyebabkannya tertangkap, terakhir kalinya justru dijatuhi hukuman yang jauh lebih berat, dibanding penjahat yang tak menunjukkan niat lebih baik.