Entropia (teoria da informação)
Origem: Wikipédia, a enciclopédia livre.
Este artigo precisa ser wikificado.
Por favor formate este artigo de acordo com as diretrizes estabelecidas no livro de estilo. Remova este aviso somente depois de todo o texto estar wikificado.
Este artigo encontra-se parcialmente em língua estrangeira. Ajude e colabore com a tradução. |
A teoria da informação diz que quanto menos informações sobre o sistema, maior será sua entropia. Isso remete ao fato de as equações matemáticas para a entropia usarem métodos probabilísticos para serem deduzidas, sendo assim quanto maior o número de arranjos possíveis, maior será a entropia.
More Than Two Classes The dichotomising procedure described above forms the basis of a heuristic method of discretizing a variable into k categories. This is a stepwise hill-climbing procedure that locates and fixes each cut point in turn. It therefore finds a good combination of cut points but offers no guarantee that it is the best. As noted above, examining all possible combinations is likely to be too time consuming.