Dado um problema que queremos resolver com aprendizagem com reforço, diversos dos algoritmos usados necessitam a acumulaçãode bastante experiência até conseguir uma performance boa. Por causa disso, é comum que seja preciso deixar o algoritmo treinar o agente por milhares ou milhões de episódios, o que pode demorar horas, ou até dias, para conseguir resolver o problema bem. Assim, este trabalho visa explorar algoritmos de aprendizagem por reforço relacional, para analisar as suas eficiências em relação à quantidade de experiência e quantidade de tempo preciso até ter uma performace boa, comparado com algoritmos mais tradicionais. Rodaremos dois algoritmos de aprendizado por reforço relacional, RRL-TG e RRL-RIB, em três objetivos no domínio do Mundo dos Blocos, e compararemos o desempenho do agente e o tempo de execução com o algoritmo Q-Learning. Concluiremos que algoritmos de aprendizado por reforço relacional conseguem ter um desempenho tão bom ou melhor comparado com Q-Learning, e em bem menos episódios de treinamento. Porém, o tempo de execução de algoritmos de aprendizado por reforço relacional é bem maior comparado com Q-Learning.